MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model - テキストから最適な人物の3Dモーションを生成する技術!
テキストから最適な人物の3Dモーションを生成する技術「MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model」の論文とコードが公開されています。
テキストから最適な人物の3Dモーションを生成する技術「MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model」の論文とコードが公開されています。
テキストから人物モーションの生成や合成が可能な技術「MDM: Human Motion Diffusion Model」が登場!
Google Researchチームらによる、テキストから画像への拡散モデルを使用し、NeRF(Neural Radiance Field)を構築する事で、3Dデータ無しで3D形状を生成できる技術「DreamFusion」が登場していました。
Google JapanのエンジニアPramook Khungurn氏による、1枚の2Dアニメキャラ立ち絵からVTuberになれる技術「Talking Head Anime from a Single Image」の第3弾アップデートの情報が2022年6月6日に公開されています。
MyHeritageがDeep Nostalgia機能を使ったサービスを開始しており、話題になっています。ディープラーニングを活用し、1枚の写真から顔のアニメーションを生成する事が出来ます。
GAN(Generative Adversarial Network:敵対的生成ネットワーク)を使用してクリーチャーを生成出来るペイントツール「Chimera Painter」をGoogleが公開しました。
「Artomatix」が「Unity Technologies」の傘下となり、Unity向けにAI技術をフル活用!Unite Now 2020 話題の講演「Introducing Unity ArtEngine」の映像日本語吹替版が公開されましたよ。
エジンバラ大学とElectronic Artsの共同研究の「Local Motion Phases for Learning Multi-Contact Character Movements(マルチコンタクトキャラクターの動きを学習するためのローカルモーションフェーズ)」SIGGRAPH 2020 向け技術論文
Samuel Arzt氏による、UnityのML-Agentsを使用し自動車の駐車のための動作を学習している映像の紹介。
少し前から色々話題となっているdeepfake技術で、実写映画版『ライオン・キング』を原作のアニメ版風タッチに合成された動画が話題になってます。
敵対的生成ネットワーク (Generative adversarial networks、略称: GANs)を使った、低解像度動画から高解像度動画を生成するアルゴリズム「TecoGAN(Temporally Coherent GANs)」
NVIDIA Researchによる、敵対的生成ネットワーク (Generative adversarial networks、略称: GANs)を使った、ラフなストロークをフォトリアルなビジュアルに置き換える技術!
NVIDIAによる深層学習(Deep Learning)ベースのフレーム補間技術映像が話題を集めております。
この手の技術ではお馴染みHao Li氏による、ニューラルネットワークを使った髪の毛構築技術「Single-View Hair Reconstruction using Convolutional Neural Networks」
© 2010-2025 3D人-3dnchu-