SpatialTrackerV2 - 単眼動画からカメラの動きとシーン形状とピクセルの動きを一気に取得できる3Dトラッキング技術!
浙江大学 CAD&CG研究所、オックスフォード大学、Ant Research(アント・グループ研究所)、Pixelwise AI、ByteDance Seedチームの共同研究チームが、3Dポイントトラッキングの新技術「SpatialTrackerV2」を発表。カメラの動き、シーンの形、そして個々のピクセルの動きをまとめて一気に推定できる画期的な学習モデルです。
浙江大学 CAD&CG研究所、オックスフォード大学、Ant Research(アント・グループ研究所)、Pixelwise AI、ByteDance Seedチームの共同研究チームが、3Dポイントトラッキングの新技術「SpatialTrackerV2」を発表。カメラの動き、シーンの形、そして個々のピクセルの動きをまとめて一気に推定できる画期的な学習モデルです。
動画拡散モデルの運動知識と骨格ベースアニメーションの制御性を融合するフレームワーク「AnimaX: Animating the Inanimate in 3D with Joint Video-Pose Diffusion Models」のプロジェクトページが公開されています。
この研究は、リエージュ大学(ベルギー)、サウジアラビア・アブドラ国王科学技術大学(KAUST)、オックスフォード大学(イギリス)、サイモンフレーザー大学(カナダ)、トロント大学(カナダ)、および Google DeepMind の研究者らによって共同で行われました。
ナンヤン工科大学、Math Magic、インペリアル・カレッジ・ロンドンの研究者らによる、1枚の画像から超高精細な破綻の少ない3Dモデルを生成する技術『Sparc3D(Sparse Representation and Construction for High-Resolution 3D Shapes Modeling)』が公開されました!
ミュンヘン工科大学の研究者らによる、AIを活用し従来の約8倍高速かつ精度も最大48%向上する3D構築技術「QuickSplat: Fast 3D Surface Reconstruction via Learned Gaussian Initialization」のプロジェクトページと動画が公開されてます!
Tencentが3Dプリミティブ形状の組み合わせでオブジェクトを再現する技術「PrimitiveAnything: Human-Crafted 3D Primitive Assembly Generation with Auto-Regressive Transformer」を公開しました!
ミュンヘン大学の研究チームCompVisが開発した新しい3D再構築技術「EDGS(Eliminating Densification for Efficient Convergence of 3DGS)」の論文が公開されています!これまでの3DGSよりも優れた精度を実現出来るとか!
Tripoなどでお馴染みVASTのAIリサーチームと香港大学がAIを活用したメッシュのパーツ分解技術「HoloPart」をオープンソース公開しました!
Tripoなどでお馴染みVASTのAIリサーチームと清華大学がAIを活用したリギング(スキニング)技術「UniRig」をオープンソース公開しました!
オックスフォード大学 視覚幾何学グループのZeren Jiang氏らによる、動画生成AIを活用し映像からシーン形状を再構築する技術アプローチ「Geo4D: Leveraging Video Generators for Geometric 4D Scene Reconstruction」が公開されています!
TripoサービスでおなじみVAST社のAI Researchチームによる3D生成系AI技術2つ「TripoSG」と「TripoSF」が予告通りオープンソース化し公開されました!
Yue Chen氏、Xingyu Chen氏、Anpei Chen氏、Gerard Pons-Moll氏、Yuliang Xiu氏らによる、CVPR 2025技術論文「Feat2GS: Probing Visual Foundation Models with Gaussian Splatting」の紹介。
北京大学ソフトウェア学院、VAST(Tripoの会社)、上海交通大学の研究者らによる「MV-Adapter: Multi-view Consistent Image Generation Made Easy」が公開されています。テキストや画像から制度の高いマルチアングル画像を生成しテクスチャとして適用出来る技術です!
深センの香港中文大学、ByteDance、清華大学の研究者らによるAI生成3Dモデル「Hi3DGen: High-fidelity 3D Geometry Generation from Images via Normal Bridging」のデモが公開されました!オープンソースで近日Githubでコードも公開される予定です。
スケッチ入力をベースに忠実性の高い3Dメッシュを生成する技術「MeshPad: Interactive Sketch Conditioned Artistic-designed Mesh Generation and Editing」のご紹介。
Meta Reality Labsとトロント大学、ベクター研究所、カリフォルニア大学バークレー校の研究者らによる「Pippo: High-Resolution Multi-View Humans from a Single Image」は1枚の人物写真から複数アングルの高解像度画像を生成する技術です!
Rune Skovbo Johansen氏による3Dシーンのサーフェス上で使用する新しいディザリング手法「Surface-Stable Fractal Dithering」の情報が公開されています。
カリフォルニア大学マーセド校とAdobe Researchによる人間の顔の単一画像から忠実度の高い3Dガウシアン頭部表現を生成する技術「FaceLift」を発表しました。
© 2010-2025 3D人-3dnchu-