HY-Motion 1.0 - Tencentがテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデルをオープンソースで公開!
テンセントが2025年12月末にテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデル「HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation」をオープンソースで公開しておりました!
テンセントが2025年12月末にテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデル「HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation」をオープンソースで公開しておりました!
ゲームの分析や解析コンテンツなどでお馴染みDigital Foundryが、ゲームの「雪表現」の歴史を、当時のハード構成とフレームレートの厳しさ込みで振り返る動画「The Evolution of Snow Rendering」がYoutube上で公開!
華中科技大学、ミュンヘン工科大学、および独立研究者による研究チームらが発表した技術「MeshRipple: Structured Autoregressive Generation of Artist-Meshes」のご紹介!自己回帰型3Dメッシュ生成における「破綻しやすさ」という根本的な問題に対しての新しい生成アプローチ!
Microsoft Research、清華大学、中国科学技術大学などの研究チームが1枚の画像から複雑かつシャープなトポロジー・PBRマテリアルを備えた高品質な3Dアセットを生成する技術「TRELLIS 2」をオープンソース公開しました!
Appleが1枚の画像から3Dシーン(3D Gaussian Splatting)を生成する技術「Sharp Monocular View Synthesis in Less Than a Second」を発表しました!
UbiSoftが1枚の画像からタイリング可能なPBRマテリアルを生成する技術「Chord: Chain of Rendering Decomposition for PBR Material Estimation from Generated Texture Images」とComfyUI向けカスタムノード「ComfyUI-Chord」を公開! SIGGRAPH Asia 2025技術論文!
香港中文大学(深圳)、香港科技大学・香港大学・北京大学、そして企業研究部門 LIGHTSPEED に所属する研究者らによる共同研究チームは、新しいPBRテクスチャ生成手法「LumiTex」を発表していました。ICLR 2026向け技術論文。
テンセントからマルチコンディション制御による3Dアセット作成フレームワーク「Hunyuan3D-Omni」がオープンソースで発表されました!
テンセントから3Dメッシュのパーツ分解技術「Hunyuan3D-Part」がオープンソースの下で公開されました!
NVIDIA&トロント大学&Vector AI研究所の研究チームによる、1枚の画像や動画からライティング環境を推定し、HDRI環境マップを生成するAIモデル「LuxDiT: Lighting Estimation with Video Diffusion Transformer」が発表されております。
シカゴ大学の研究者らによるAIでBlender内で3Dアセットを作成・編集するPythonコードを生成できるオープンソース技術「LL3M: Large Language 3D Modelers」が発表されています。
上海大学、Deemos Technology、華中科技大学の研究チームによる、3Dメッシュをパーツごとに分解する技術「BANG: Dividing 3D Assets via Generative Exploded Dynamics」が発表されています!SIGGRAPH 2025 技術論文です!
スコットランド グラスゴー大学(University of Glasgow)の 研究チームが発表した「Multi-Person Interaction Generation from Two-Person Motion Priors」。 既存の2人モーション拡散モデルを再利用して、多人数同時のリアルなインタラクション生成を可能にする技術!SIGGRAPH 2025 発表技術論文です。
ユタ大学の研究者らによるより貫通の無いクロスシミュレーションを実現可能な技術アプローチ「Offset Geometric Contact(OGC)」!SIGGRAPH 2025発表技術論文です。
CUHK、UCL、Adobe Research、UESTCの研究者らによる、指定したシェイプに対して適切な手影用ハンドポーズを提示してくれる技術「Hand Shadow Poser」のご紹介。SIGGRAPH 2025発表技術論文です。
東京大学や創作系研究者らによる共同研究チームが、190点の立方体型木材サンプルを収録した「Mokumeデータセット(The Mokume Dataset and Inverse Modeling of Solid Wood Textures)」の情報を公開。それを活用して、外観の写真から内部構造と色テクスチャを推定する画期的な逆モデリング技術を発表!SIGGRAPH 2025発表技術論文です。
DFKI、Max Planck、Snap Inc.などの研究チームが手がけた、音楽を入力するだけで、二人ペアでシンクロするインタラクティブなダンスシーンを自動生成するAI技術「DuetGen」が登場。音楽とキャラクター同士のやり取りまで自然に再現します。SIGGRAPH 2025発表技術です。
浙江大学 CAD&CG研究所、オックスフォード大学、Ant Research(アント・グループ研究所)、Pixelwise AI、ByteDance Seedチームの共同研究チームが、3Dポイントトラッキングの新技術「SpatialTrackerV2」を発表。カメラの動き、シーンの形、そして個々のピクセルの動きをまとめて一気に推定できる画期的な学習モデルです。
© 2010-2025 3D人-3dnchu-