The Matrix: Infinite-Horizon World Gener...

アリババ・グループ、香港大学、ウォータールー大学、ベクター・インスティテュートの研究者らによる、AI活用の世界生成&リアルタイム動画生成技術「The Matrix」が発表されました!

続きを読む

Maya リギング 3rd edition - 正しいキャラクターリグの作り方 ...

Maya向けリギング本といえば定番となった「Rig It Right!」更にアップデートされた第3版の日本語版「Maya リギング 3rd edition」が2024年11月下旬にボーンデジタルから発売されます!

続きを読む

Population V2 - Blender向けプロシージャル群衆シミュレーシ...

BproductionによるBlender向けプロシージャル群衆シミュレーションアドオンのメジャーアップデート版「Population V2」がリリースされました!

続きを読む

Black Eye Cameras - プロシージャルに被写体をフレーム内に収め...

Unityのカメラ制御システム「Cinemachine」などを手掛けたクリエイターらによる新Unreal Engine 5向けプロシージャルカメラ制御プラグイン「Black Eye Camera」がFab上でリリースされました!

続きを読む

AivisSpeech - Style-Bert-VITS2を採用し手軽に使える...

Aivis Projectから、AI音声合成ソフト「AivisSpeech」がリリースされました!無料で使えますよ!

続きを読む

Autodesk Maya | Maya の価格と購入(公式ストア) | Autodesk

Make-A-Video - MetaのAI研究開発チームによるテキストからビデオを生成する技術が発表!

この記事は約2分5秒で読めます

Meta AIによる、テキストプロンプトから動画を生成する技術「Make-A-Video」が発表されました。


プロモーション

求人情報検索 | CG・映像の専門情報サイト | CGWORLD.jp


Make-A-Video

Make-A-Videoの研究は、テキストからビデオへの生成を可能にするために構築されたテキストから画像への生成技術における最近の進歩をベースにしています。このシステムは、説明文付きの画像を用いて、世界がどのように見えるか、また、どのように説明されることが多いかを学習します。また、ラベルのない動画を使って、世界の動きを学習します。このデータをもとに、Make-A-Videoは、わずかな文字や行のテキストで、気まぐれで世界にひとつだけの動画を生成し、あなたの想像力を膨らませます。

公式ページより

私たちは、Text-to-Image(T2I)生成における最近の驚異的な進歩を、Text-to-Video(T2V)に直接変換するアプローチであるMake-A-Videoを提案します。我々の直感は単純で、テキストと画像のペアデータから、世界がどのように見えるか、どのように記述されるかを学び
このように、Make-A-Videoは、テキストと画像のペアから世界の様子とその説明を学習し、教師なしビデオ映像から世界の動きを学習する。Make-A-Videoには、
(1)T2Vモデルの学習を高速化できる(視覚表現とマルチモーダル表現を一から学習する必要がない)
(2)教師なしビデオ映像から世界の動きを学習できテキストとビデオのペアデータを必要としない、
(3)生成されたビデオは今日の画像生成モデルの持つ広大さ(美的感覚の多様性、幻想的な描写など)を継承している
という三つの利点があります。
我々は、T2Iモデルに新規かつ効果的な空間-時間モジュールを構築するための、シンプルかつ効果的な方法を設計する。まず、完全な時間的U-Netと注意テンソルを分解し、空間と時間で近似する。次に、T2V以外の様々なアプリケーションを可能にするビデオデコーダ、補間モデル、2つの超解像モデルにより、高解像度かつフレームレートのビデオを生成する空間時間パイプラインを設計する。空間的・時間的解像度、テキストへの忠実性、品質、すべての側面において、Make-A-Videoは質的にも量的にも、テキストからビデオへの生成における新しい最先端を打ち立てたと言える。

論文より

これまた凄いのが出てきましたね。「Make-A-Video」は現在論文のみ公開済みです。
今後の動向が気になる方は、是非サイトをチェックしてみてください。

リンク

Screenshot of makeavideo.studio


プロモーション


関連記事

  1. MotionDiffuse: Text-Driven Human Motion Generation with Diffusion Model - テキストから最適な人物の3Dモーションを生成する技術!

    2022-10-05

  2. Editable Dance GEneration (EDGE) - 音楽に合わせて人型3Dモデル用のダンスアニメーションを生成可能なAIモデル!スタンフォード大学が開発!

    2023-04-29

  3. Space-Time Neural Irradiance Fields for Free-Viewpoint Video - 単一視点の動画から破綻を抑えて3D空間を取り込むための技術

    2020-11-26

  4. TexDreamer: Towards Zero-Shot High-Fidelity 3D Human Texture Generation - テキストや入力画像から3D人体のテクスチャを生成出来るモデルが登場!

    2024-03-26

コメントをお待ちしています。

コメント

日本語が含まれない投稿は無視されます。-Posts that do not include the Japanese will be ignored-(スパム対策-anti Spam-)

3D人-3dnchu-

3D/2D/VR/GAME/AIなどのCGに関連する個人的に気になる情報をほぼ毎日紹介!XやYoutubeなども是非フォローよろしくお願いします!

※当サイトの一部記事にはアフィリエイトが含まれております。

アーカイブ

カテゴリ

おすすめ商品Pickup

注目の記事

PR


PR


採用 | 3DCGアーティスト&テクニカルアーティスト大募集 | 株式会社Cygames

   
USD
3D人のLINEアカウントを作りました!
友だち追加


follow us in feedly

RSSリーダーで購読する


ほしい物リスト公開中!
3D人運営に援助!
Amazonでリストを見る

Discordチャンネル公開

pixivFUNBOXページ公開!




おすすめ商品Pickup

おすすめ記事

ページ上部へ戻る