I Electroplated a 3D Printed Iron Man Helmet and it's out of this World! - FDM系3Dプリントで出力したオブジェクトに電気メッキを施してテカテカにする方法を解説した動画!
HEN3DRIK - Electroplating 3D PrintsのYoutubeチャンネルにてFDM系3Dプリントで出力したアイアンマンヘルメットに電気メッキを施してテカテカにする工程を解説した動画が公開されています。
HEN3DRIK - Electroplating 3D PrintsのYoutubeチャンネルにてFDM系3Dプリントで出力したアイアンマンヘルメットに電気メッキを施してテカテカにする工程を解説した動画が公開されています。
カーネギーメロン大学やマックス・プランク知能システム研究所らの研究者による『WHAM:Reconstructing World-grounded Humans with Accurate 3D Motion』という技術に注目が集まっています。動画から人物のモーションを構築する技術です。
何気なく取った動物や人物の映像から脚式ロボット向けに動きを転送する為のフレームワーク『SLoMo: A General System for Legged Robot Motion Imitation from Casual Videos』が公開されています。
Metaやカリフォルニア大学サンディエゴ校 、メリーランド大学カレッジパーク校の研究者らによる、数枚の画像からターゲットの3Dモデルにテクスチャを転送する技術『TextureDreamer: Image-guided Texture Synthesis through Geometry-aware Diffusion』が発表されています。
NVIDIAがCES 2024に合わせてNVIDIA Audio2Face (A2F) および NVIDIA Riva 自動音声認識 (ASR) 用の ACE プロダクション マイクロサービスが利用可能になったことを発表しました。
3DジェネレーティブAIプラットフォーム『Atlas』が発表されました。スクエニなどと提携しているとか。これは気になります。
ByteDance、State Key Lab of CAD & CGk浙江大学の研究者らによる『DreamSpace: Dreaming Your Room Space with Text-Driven Panoramic Texture Propagation』という技術の紹介。
華中科技大学やHuaweiの研究者らによる、動的な3Dガウス・スプラッティングシーンの学習と軽量にリアルタイム再生する技術『4D Gaussian Splatting for Real-Time Dynamic Scene Rendering』
より高精度なText-to-3Dモデル『DreamCraft3D: Hierarchical 3D Generation with Bootstrapped Diffusion Prior』のご紹介。
Zhejiang University、Image Derivative Inc.、Ant Groupらによる、動的3Dシーンを4K解像度でリアルタイム描画出来る技術『4K4D』が登場。
南洋理工大学S-Lab、SenseTime Research、上海AI研究所、東京大学、国際デジタル・エコノミー・アカデミー(IDEA)の研究者達による、単眼カメラ映像から人物の動きを検出する技術『SMPLer-X: Scaling Up Expressive Human Pose and Shape Estimation』のコードが公開されております。NeurIPS 2023 論文
マックスプランク情報学研究所のSoshi Shimada氏、Vladislav Golyanik氏、Christian Theobalt氏、Video.aiのPatrick Pérez氏らによる、単眼カメラからのモーキャプの際に手と顔の相互作用による変形を実現するSIGGRAPH ASIA 2023技術論文「Decaf: Monocular Deformation Capture for Face and Hand Interactions」のご紹介。
Inria、マックスプランク情報学研究所、ユニヴェルシテ・コート・ダジュールの研究者達による、NeRF(Neural Radiance Fields)とは異なる、Radiance Fieldの技術「3D Gaussian Splatting for Real-Time Radiance Field Rendering」が発表され話題を集めています。
ElevenLabsが日本語を含む28言語に対応したAI音声モデル「Multilingual v2」を正式にリリースしました!
ICCV 2023に合わせて発表された単眼カメラ映像から人物の動きをトラッキングする新技術「4D Humans: Reconstructing and Tracking Humans with Transformers」が注目を集めています。
ウィッグなどをCT(Computed Tomography(コンピュータ断層撮影))スキャンし、そこで得られたデータからヘアーストランドを生成する技術「CT2Hair: High-Fidelity 3D Hair Modeling using Computed Tomography」が公開されています。
Sunija氏による「Stable Diffusion」をローカル環境で動かすソフト「InvokeAI」のv3.0がリリースされました。
単眼の動画や複数枚の画像から、ストランドベースのヘアーモデルを構築出来る技術「Neural Haircut: Prior-Guided Strand-Based Hair Reconstruction」が公開されています。International Conference on Computer Vision 2023(ICCV2023)技術論文です。
© 2010-2025 3D人-3dnchu-