原文來源:AIGC開放社區(qū)
圖片來源:由無界 AI生成
隨著ChatGPT的出現(xiàn)以及廣泛應用,,通過文本生成文本,、視頻、音頻等內容,,成為實現(xiàn)技術民主化的關鍵手段,。
在3D模型領域通過文本生成并不成熟,多數(shù)方法是通過圖片。而該方法存在生成時間長,、缺乏細節(jié),、難以匹配圖像等缺點,。
加州大學、清華大學,、斯坦福大學共同開發(fā)了全新模型“One-2-3-45++”并將其開源,。該模型僅通過圖片,就能在1分鐘內將一張RGB圖像轉換為高精準3D模型,,這對于游戲開發(fā),、3D建模等領域,可以節(jié)省大量開發(fā)時間,。
研究人員在包含1030個3D對象的GSO數(shù)據(jù)集上與多個基準方法進行了比較,。測試數(shù)據(jù)顯示,One-2-3-45++在幾何相似度,、CLIP相似度指標上均優(yōu)于基準方法,。
在包含50多名真實用戶的評估數(shù)據(jù)顯示,87.6%表示One-2-3-45++生成的結果,優(yōu)于其他方法,質量更高,、更符合輸入圖像,。
開源地址:https://github.com/SUDO-AI-3D/One2345plus
論文地址:https://arxiv.org/abs/2311.07885
在線demo:https://www.sudo.ai/3dgen
One-2-3-45++的核心技術原理主要包括三大塊:一致的多視角圖像生成、基于多視角的3D重建以及紋理優(yōu)化,。
一致的多視角圖像生成
這一模塊的作用是從單個輸入圖像中生成多個視角一致的圖像,。One-2-3-45++一共可生成6個視角的圖像,布局是一個3×2的矩形網(wǎng)格,分別對應不同的相機位置。
為了避免生成的3D形狀存在方向歧義,這6個相機位姿使用絕對高度角以及相對方位角來定義,,同時使用了預訓練文生圖模型Stable Diffusion作為生成器,。
此外,使用了Objaverse數(shù)據(jù)集中的3D形狀進行微調,。對每個3D形狀,生成3個訓練樣本,分別對應不同的輸入圖像視角,。同時使用統(tǒng)一的HDR環(huán)境光進行渲染,,以提升細節(jié)、光影效果,。
基于多視角的3D重建
上一個模塊我們已經有了6個對象的多視角圖片,這個模塊就是要把二維的圖片轉換成3D模型,。
具體做法是先用6張圖片生成一個低分辨率的三維體積元素,近似表示整體形狀。然后在體積元素里面生成更高分辨率的“體積元素”,捕捉表面細節(jié),。
體積元素就是用小立方體組成的三維矩陣,。這里有兩種體積元素,一種SDF體積元素,記錄了一個位置到物體表面的距離;另一種是顏色體積元素,記錄一個位置到物體表面最近點的顏色。
同時這6張圖片是生成體積元素的條件,,先從圖片里提取二維特征,然后反投影到三維空間構建一個三維特征體,這個體包含了多視角的先驗信息,可以指導三維模型體積元素的生成,。
紋理優(yōu)化
經過前面兩個步驟生成的3D模型,在顏色,、質量,、紋理方面還比較粗糙,所以需要進行優(yōu)化達到最終效果,。同樣可以利用前面6個視角的圖像,來增強最終網(wǎng)格模型的紋理質量,。
方法是固定住網(wǎng)格的三維結構不變,僅優(yōu)化表示顏色的網(wǎng)絡,。每次迭代中,用當前的顏色網(wǎng)絡渲染網(wǎng)格,生成二維圖片。然后與之前生成的多視角圖片計算損失,更新顏色網(wǎng)絡,。
這樣通過不斷地優(yōu)化,網(wǎng)格表面的顏色信息會逐漸跟多視角圖片越來越接近,從而實現(xiàn)紋理的提升,。
免責聲明:本文來自網(wǎng)絡收錄或投稿,觀點僅代表作者本人,,不代表芒果財經贊同其觀點或證實其描述,,版權歸原作者所有。轉載請注明出處:http://lequren.com/1085088.html
溫馨提示:投資有風險,,入市須謹慎,。本資訊不作為投資理財建議。