テンセントが2025年12月末にテキストから人体骨格ベースの3Dキャラクターモーションを生成するAIモデル「HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation」をオープンソースで公開しておりました!
HY-Motion 1.0: Scaling Flow Matching Models for 3D Motion Generation
Tencent HY-Motion 1.0は、Diffusion Transformer(DiT)とフローマッチングに基づくテキストから3D人体動作を生成する一連のモデルです。開発者はシンプルなテキストプロンプトから骨格ベースの3Dキャラクターアニメーションを生成でき、様々な3Dアニメーションパイプラインに直接統合可能です。本モデルシリーズは、DiTベースのテキストからモーション生成モデルを初めて10億パラメータ規模に拡張したもので、既存のオープンソースモデルと比較して指示追従能力とモーション品質において大幅な改善を実現しています。
🔹10億スケールのDiT:フローマッチングDiTを10億以上のパラメータに正常にスケールし、指示追従能力と生成されたモーションの品質の新たな上限を設定しました。
🔹フルステージトレーニング戦略:物理的な妥当性と意味的な正確さを最適化するために、業界初のPre-training → SFT → RLループを完備したモーション生成モデル。
🔹包括的なカテゴリカバー率:業界で最も包括的な、綿密なデータパイプラインを介してキュレーションされた、6つの主要クラスにわたる200以上のモーションカテゴリを特徴としています。
まぁモーションもこうなりますよね。どんどん簡単になっていくのかな。
任意のVRMモデルでプレビューする方法を金のニワトリ氏が公開しているので注目です
その他詳細はプロジェクトページをチェックしてみてください!













コメント