スコットランド グラスゴー大学(University of Glasgow)の 研究チームが発表した「Multi-Person Interaction Generation from Two-Person Motion Priors」。 既存の2人モーション拡散モデルを再利用して、多人数同時のリアルなインタラクション生成を可能にする技術!SIGGRAPH 2025 発表技術論文です。
Multi-Person Interaction Generation from Two-Person Motion Priors
高水準の制御を伴うリアルな人間の動きを生成することは、社会理解、ロボット工学、アニメーションにとって極めて重要な課題である。近年、高品質なMOCAPデータが利用できるようになり、データ駆動型の様々なアプローチが発表されている。しかし、多人数インタラクションのモデリングはまだあまり研究されていない分野である。本論文では、グラフ駆動インタラクションサンプリング(Graph-driven Interaction Sampling)を紹介する。これは、既存の二人用運動拡散モデルを運動プライアとして活用することで、リアルで多様な多人数インタラクションを生成できる手法である。多人数インタラクション合成に特化した新しいモデルをトレーニングする代わりに、我々の重要な洞察は、複雑な多人数インタラクションを空間的・時間的に分離し、2人インタラクションのグラフ構造にすることである。こうして、生成タスクを、互いの動きを条件とする同時一人動作生成に分解する。さらに、生成された多人数インタラクションにおける身体部位の相互貫入のようなアーチファクトを低減するために、拡散サンプリングスキームに2つのグラフ依存誘導項を導入する。従来の研究とは異なり、本手法は、個々の動作を繰り返すことなく、様々な高品質の多人数インタラクションを生成することができる。広範な実験により、本手法は、様々な二人及び多人数インタラクションを生成する際に、アーチファクトの低減において既存の手法を常に上回ることが実証された。
- 目的: 高品質な 多人数の人間モーション生成 は、これまでロボティクスやアニメーションなどで難しい課題。
- 問題: モーション撮影データは豊富でも、多人数の交流を再現するデータは少なく、モデルの拡張が困難。
- 提案:
- まず 2人間のモーション生成モデル(拡散モデル)を活用することで、 グラフ構造によって多人数のモーションを生成する仕組みを構築。
- Pairwise Interaction Graph と呼ばれるグラフを用いて、各キャラクターの動きを隣接ノードに制御を条件付け。
- 各ノード(人物)は 1対1の既存モデル によって動きが生成。
- アーティファクト制御: 非接続ペア間の関節の干渉や不要な接触を防ぐため、Proxemics(距離)損失 とGLI(Gauss Linking Integral)損失を導入し、サンプリング時に最適化してリアルな干渉回避を実現。
- 結果: 最大10人以上の多人数でも 多様で自然なインタラクション を生成可能。従来手法より干渉や滑らかさに優れた性能を実証。
群衆シミュレーション系ツールでもこれくらいの絡みを自動で作ってくれると便利そうですね。今後の発展が楽しみです。Githubにはコードも公開済みです。詳細はプロジェクトページをチェックしてみてください!
コメント