Atlas - 安心して使用可能な3DジェネレーティブAIプラットフォーム!?2年半のステルス期間を経て遂に発表!アルファ版が近日公開予定!UnityとUnreal Engine向け無料プラグインが開発中!
3DジェネレーティブAIプラットフォーム『Atlas』が発表されました。スクエニなどと提携しているとか。これは気になります。
3DジェネレーティブAIプラットフォーム『Atlas』が発表されました。スクエニなどと提携しているとか。これは気になります。
ByteDance、State Key Lab of CAD & CGk浙江大学の研究者らによる『DreamSpace: Dreaming Your Room Space with Text-Driven Panoramic Texture Propagation』という技術の紹介。
華中科技大学やHuaweiの研究者らによる、動的な3Dガウス・スプラッティングシーンの学習と軽量にリアルタイム再生する技術『4D Gaussian Splatting for Real-Time Dynamic Scene Rendering』
より高精度なText-to-3Dモデル『DreamCraft3D: Hierarchical 3D Generation with Bootstrapped Diffusion Prior』のご紹介。
Inria、マックスプランク情報学研究所、ユニヴェルシテ・コート・ダジュールの研究者達による、NeRF(Neural Radiance Fields)とは異なる、Radiance Fieldの技術「3D Gaussian Splatting for Real-Time Radiance Field Rendering」が発表され話題を集めています。
ICCV 2023に合わせて発表された単眼カメラ映像から人物の動きをトラッキングする新技術「4D Humans: Reconstructing and Tracking Humans with Transformers」が注目を集めています。
Sunija氏による「Stable Diffusion」をローカル環境で動かすソフト「InvokeAI」のv3.0がリリースされました。
ウィスコンシン大学マディソン校、ByteDance社による、1枚の写真から3D頭部を構築する技術『PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360°』が公開されました。
瞳に反射した画像を、3D構築する技術「Seeing the World through Your Eyes」が発表されています。
2023年6月6日にDaz 3Dを所有するTafiが、テキストから3Dキャラクターを作成する Text-to-3D Character Engine を発表しました!
NVIDIA Researchによる2D映像を複雑なディテールを持つ3D構造物に変える新しいAIモデル「Neuralangelo: High-Fidelity Neural Surface Reconstruction」が発表され話題を集めています。
中国の清華大学による、テキストから3DモデルやNeRFを生成出来る技術『ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation』が公開されました。
Xingang Pan氏、Ayush Tewari氏、Thomas Leimkühler氏、Lingjie Liu氏、Abhimitra Meka氏、Christian Theobalt氏らよる「Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold」が話題になっています。
スタンフォード大学による、音楽に合わせて人型3Dモデル用のダンスアニメーションを生成可能なAIモデル「Editable Dance GEneration (EDGE)」が発表されています。
数多くの動画編集やAIソリューションを展開する「Runway」から注目されていた動画加工モデル「Gen-1」のベータ版が一般公開されました!
Googleの研究チームが自動作曲AI「MusicLM」を開発し情報公開しました。
生成的なAIとグローバルなクリエイターコミュニティによって運営されるOpusAIは、テキストからビデオゲームを作成する技術を開発中とのことで、デモ映像が公開されておりました。
BlueWillowのAI画像生成サービスがベータ提供開始されています。Midjourney同様、Discord上で使用します。
© 2010-2024 3D人-3dnchu-