4K4D: Real-Time 4D View Synthesis at 4K Resolution - 動的3Dシーンを4K解像度でサクサクリアルタイム描画出来る技術が登場!
Zhejiang University、Image Derivative Inc.、Ant Groupらによる、動的3Dシーンを4K解像度でリアルタイム描画出来る技術『4K4D』が登場。
Zhejiang University、Image Derivative Inc.、Ant Groupらによる、動的3Dシーンを4K解像度でリアルタイム描画出来る技術『4K4D』が登場。
南洋理工大学S-Lab、SenseTime Research、上海AI研究所、東京大学、国際デジタル・エコノミー・アカデミー(IDEA)の研究者達による、単眼カメラ映像から人物の動きを検出する技術『SMPLer-X: Scaling Up Expressive Human Pose and Shape Estimation』のコードが公開されております。NeurIPS 2023 論文
マックスプランク情報学研究所のSoshi Shimada氏、Vladislav Golyanik氏、Christian Theobalt氏、Video.aiのPatrick Pérez氏らによる、単眼カメラからのモーキャプの際に手と顔の相互作用による変形を実現するSIGGRAPH ASIA 2023技術論文「Decaf: Monocular Deformation Capture for Face and Hand Interactions」のご紹介。
Inria、マックスプランク情報学研究所、ユニヴェルシテ・コート・ダジュールの研究者達による、NeRF(Neural Radiance Fields)とは異なる、Radiance Fieldの技術「3D Gaussian Splatting for Real-Time Radiance Field Rendering」が発表され話題を集めています。
ElevenLabsが日本語を含む28言語に対応したAI音声モデル「Multilingual v2」を正式にリリースしました!
ICCV 2023に合わせて発表された単眼カメラ映像から人物の動きをトラッキングする新技術「4D Humans: Reconstructing and Tracking Humans with Transformers」が注目を集めています。
ウィッグなどをCT(Computed Tomography(コンピュータ断層撮影))スキャンし、そこで得られたデータからヘアーストランドを生成する技術「CT2Hair: High-Fidelity 3D Hair Modeling using Computed Tomography」が公開されています。
Sunija氏による「Stable Diffusion」をローカル環境で動かすソフト「InvokeAI」のv3.0がリリースされました。
単眼の動画や複数枚の画像から、ストランドベースのヘアーモデルを構築出来る技術「Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction」が公開されています。International Conference on Computer Vision 2023(ICCV2023)技術論文です。
『Beginning Digital Image Processing: using Free Tools for Photographers』の著者で、コンピューターエンジニアのSebastian Montabone氏による、AIのパワーで白黒写真をカラー化出来るソフト「Interactive Photo Colorizer」がリリースされています。
国立情報学研究所(NII)のコンテンツ科学研究系 助教、池畑 諭氏による「SDM-UniPS(Scalable, Detailed, and Mask-Free Universal Photometric Stereo)」が公開されています。CVPR(Computer Vision and Pattern Recognition)2023論文です。
ウィスコンシン大学マディソン校、ByteDance社による、1枚の写真から3D頭部を構築する技術『PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360°』が公開されました。
瞳に反射した画像を、3D構築する技術「Seeing the World through Your Eyes」が発表されています。
2023年6月6日にDaz 3Dを所有するTafiが、テキストから3Dキャラクターを作成する Text-to-3D Character Engine を発表しました!
NVIDIA Researchによる2D映像を複雑なディテールを持つ3D構造物に変える新しいAIモデル「Neuralangelo: High-Fidelity Neural Surface Reconstruction」が発表され話題を集めています。
中国の清華大学による、テキストから3DモデルやNeRFを生成出来る技術『ProlificDreamer: High-Fidelity and Diverse Text-to-3D Generation with Variational Score Distillation』が公開されました。
Xingang Pan氏、Ayush Tewari氏、Thomas Leimkühler氏、Lingjie Liu氏、Abhimitra Meka氏、Christian Theobalt氏らよる「Drag Your GAN: Interactive Point-based Manipulation on the Generative Image Manifold」が話題になっています。
スタンフォード大学による、音楽に合わせて人型3Dモデル用のダンスアニメーションを生成可能なAIモデル「Editable Dance GEneration (EDGE)」が発表されています。
© 2010-2025 3D人-3dnchu-