Disney Researchによる、ロボットがより人間らしく踊ったり飛び跳ねたり出来るような動きを学習させる技術「VMP: Versatile Motion Priors for Robustly Tracking Motion on Physical Characters」の動画が公開されておりました!SIGGRAPH 2024技術論文!
VMP: Versatile Motion Priors for Robustly Tracking Motion on Physical Characters
近年の物理ベースのキャラクタ制御の進歩により、非構造化モーションデータからポリシーを学習することが可能になった。しかし、多様で未知の動作に対応し、実世界の物理ロボットに展開可能な単一の制御方針を学習することは依然として困難である。本論文では、模倣精度に着目し、全身運動学的な動作参照を持つキャラクタの制御を可能にする2段階の手法を提案する。
第一段階では、変分自動訓練により潜在空間を学習することで、潜在空間エンコーディングを抽出する。
次に、時変潜在符号からの埋め込みを用いて、第2段階で条件付きポリシーを学習し、運動学的入力からダイナミクスを考慮した出力へのマッピングを提供する。
この2つの段階を分離することで、より良い潜在コードを得るための自己教師法と、モード崩壊を避けるための明示的な模倣報酬の恩恵を受けることができる。本手法の効率性と頑健性を、ユーザが指定した未知のモーションを用いたシミュレーションと、ダイナミックモーションを実世界に持ち込んだ二足歩行ロボットで実証する。
こういう技術革新はワクワクします。ここ数年でロボットの動きも格段に良くなってる印象。
論文のPDFなどは公式サイトをご確認ください。
コメント