スタンフォード大学による、音楽に合わせて人型3Dモデル用のダンスアニメーションを生成可能なAIモデル「Editable Dance GEneration (EDGE)」が発表されています。
Editable Dance GEneration (EDGE)
スタンフォード大学の研究者は、あらゆる音楽に合わせて人間のダンス アニメーションを振り付けできる生成型 AI モデルを開発しました。Editable Dance GEneration( EDGE )と呼ばれます。
「 EDGEは、AI 対応のキャラクターが、これまで不可能だったレベルの音楽性と芸術性をダンス アニメーションにもたらすことができることを示しています。、彼女の研究室で。
https://hai.stanford.edu/news/ai-powered-edge-dance-animator-applies-generative-ai-choreography
研究者は、このツールが、振付家がシーケンスを設計し、3D ダンス シーケンスを視覚化することで、ライブ ダンサーにアイデアを伝えるのに役立つと考えています。プログラムの高度な機能の鍵は編集機能です。Liu は、EDGE を使用して、アニメーターがダンス モーションの任意の部分を直感的に編集できるようにすることで、コンピューター アニメーションのダンス シーケンスを作成できると考えています。
たとえば、アニメーターはキャラクターの特定の脚の動きを設計でき、EDGE はその位置から身体全体を現実的かつシームレスで物理的にもっともらしい方法で「オートコンプリート」します。人間が動きを完成させることができます。何よりも、動きはアニメーターの音楽の選択と一致しています。
画像とテキストの他の生成モデル (ChatGPT や DALL-E など) と同様に、EDGE は振り付けのアイデア生成と動作計画のための新しいツールです。編集可能ということは、ダンス アーティストや振付師が、正確な瞬間に特定のポーズを追加して、動きごと、位置ごとにシーケンスを反復的に改良できることを意味します。EDGE は、追加の詳細をシーケンスに自動的に組み込みます。近い将来、EDGE では、ユーザーが自分の音楽を入力したり、カメラの前で動きを実演したりできるようになります。
うひょー、また面白いものが出ましたね。
自分のキャラクターを好きな曲で手軽に踊らせる事ができるだけでもワクワクします。
この記事公開時では、まだDemoの公開は御座いません。6月18に開催されるCVPR 2023に合わせて公開されるのかな?Githubにはコードが公開されていますね。
詳細は公式サイトを是非チェックしてみてください!
リンク
Could AI choreograph the next TikTok dance trend? Stanford researchers have created a model called EDGE that can choreograph human dance animation to match any piece of music – unlocking new possibilities for creative expression & physical engagement. https://t.co/W0JpnqO3mT pic.twitter.com/CAKrqZqWGp
— Stanford HAI (@StanfordHAI) April 26, 2023
コメント