BANG: Dividing 3D Assets via Generative Exploded Dynamics - 3Dメッシュをパーツごとに分解する技術!SIGGRAPH 2025 発表論文!
上海大学、Deemos Technology、華中科技大学の研究チームによる、3Dメッシュをパーツごとに分解する技術「BANG: Dividing 3D Assets via Generative Exploded Dynamics」が発表されています!SIGGRAPH 2025 技術論文です!
上海大学、Deemos Technology、華中科技大学の研究チームによる、3Dメッシュをパーツごとに分解する技術「BANG: Dividing 3D Assets via Generative Exploded Dynamics」が発表されています!SIGGRAPH 2025 技術論文です!
スコットランド グラスゴー大学(University of Glasgow)の 研究チームが発表した「Multi-Person Interaction Generation from Two-Person Motion Priors」。 既存の2人モーション拡散モデルを再利用して、多人数同時のリアルなインタラクション生成を可能にする技術!SIGGRAPH 2025 発表技術論文です。
ユタ大学の研究者らによるより貫通の無いクロスシミュレーションを実現可能な技術アプローチ「Offset Geometric Contact(OGC)」!SIGGRAPH 2025発表技術論文です。
CUHK、UCL、Adobe Research、UESTCの研究者らによる、指定したシェイプに対して適切な手影用ハンドポーズを提示してくれる技術「Hand Shadow Poser」のご紹介。SIGGRAPH 2025発表技術論文です。
東京大学や創作系研究者らによる共同研究チームが、190点の立方体型木材サンプルを収録した「Mokumeデータセット(The Mokume Dataset and Inverse Modeling of Solid Wood Textures)」の情報を公開。それを活用して、外観の写真から内部構造と色テクスチャを推定する画期的な逆モデリング技術を発表!SIGGRAPH 2025発表技術論文です。
DFKI、Max Planck、Snap Inc.などの研究チームが手がけた、音楽を入力するだけで、二人ペアでシンクロするインタラクティブなダンスシーンを自動生成するAI技術「DuetGen」が登場。音楽とキャラクター同士のやり取りまで自然に再現します。SIGGRAPH 2025発表技術です。
浙江大学 CAD&CG研究所、オックスフォード大学、Ant Research(アント・グループ研究所)、Pixelwise AI、ByteDance Seedチームの共同研究チームが、3Dポイントトラッキングの新技術「SpatialTrackerV2」を発表。カメラの動き、シーンの形、そして個々のピクセルの動きをまとめて一気に推定できる画期的な学習モデルです。
動画拡散モデルの運動知識と骨格ベースアニメーションの制御性を融合するフレームワーク「AnimaX: Animating the Inanimate in 3D with Joint Video-Pose Diffusion Models」のプロジェクトページが公開されています。
この研究は、リエージュ大学(ベルギー)、サウジアラビア・アブドラ国王科学技術大学(KAUST)、オックスフォード大学(イギリス)、サイモンフレーザー大学(カナダ)、トロント大学(カナダ)、および Google DeepMind の研究者らによって共同で行われました。
ナンヤン工科大学、Math Magic、インペリアル・カレッジ・ロンドンの研究者らによる、1枚の画像から超高精細な破綻の少ない3Dモデルを生成する技術『Sparc3D(Sparse Representation and Construction for High-Resolution 3D Shapes Modeling)』が公開されました!
ミュンヘン工科大学の研究者らによる、AIを活用し従来の約8倍高速かつ精度も最大48%向上する3D構築技術「QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization」のプロジェクトページと動画が公開されてます!
Tencentが3Dプリミティブ形状の組み合わせでオブジェクトを再現する技術「PrimitiveAnything: Human-Crafted 3D Primitive Assembly Generation with Auto-Regressive Transformer」を公開しました!
ミュンヘン大学の研究チームCompVisが開発した新しい3D再構築技術「EDGS(Eliminating Densification for Efficient Convergence of 3DGS)」の論文が公開されています!これまでの3DGSよりも優れた精度を実現出来るとか!
Tripoなどでお馴染みVASTのAIリサーチームと香港大学がAIを活用したメッシュのパーツ分解技術「HoloPart」をオープンソース公開しました!
Tripoなどでお馴染みVASTのAIリサーチームと清華大学がAIを活用したリギング(スキニング)技術「UniRig」をオープンソース公開しました!
オックスフォード大学 視覚幾何学グループのZeren Jiang氏らによる、動画生成AIを活用し映像からシーン形状を再構築する技術アプローチ「Geo4D: Leveraging Video Generators for Geometric 4D Scene Reconstruction」が公開されています!
TripoサービスでおなじみVAST社のAI Researchチームによる3D生成系AI技術2つ「TripoSG」と「TripoSF」が予告通りオープンソース化し公開されました!
Yue Chen氏、Xingyu Chen氏、Anpei Chen氏、Gerard Pons-Moll氏、Yuliang Xiu氏らによる、CVPR 2025技術論文「Feat2GS: Probing Visual Foundation Models with Gaussian Splatting」の紹介。
© 2010-2025 3D人-3dnchu-