Neuralangelo是NVIDIA Research 開發(fā)的一個全新AI模型,它利用神經(jīng)網(wǎng)絡進行3D重建,可將2D視頻片段轉換為詳細的3D結構,為建筑物、雕塑以及其他真實物體生成逼真的虛擬復本。
就像米開朗基羅用大理石雕刻出令人驚嘆、栩栩如生的雕塑一樣,Neuralangelo能生成具有復雜細節(jié)和紋理的3D結構。隨后,創(chuàng)意人士可以將這些3D物體導入設計軟件中,對其進行進一步編輯,用于藝術、視頻游戲開發(fā)、機器人和工業(yè)數(shù)字孿生。
Neuralangelo將復雜材料——包括屋頂瓦片、玻璃板和光滑的大理石——的紋理從2D視頻轉換為3D物料的能力大大超過了以前的方法。高保真度讓開發(fā)者和創(chuàng)意專業(yè)人士更容易進行3D重建,使用智能手機拍攝的視頻快速為項目創(chuàng)建可用的虛擬物體。
NVIDIA Research高級研究總監(jiān)、上述論文的合著者劉洺堉表示:“Neuralangelo的3D重建能力將使創(chuàng)作者受益匪淺,能夠幫助他們在數(shù)字世界中重建現(xiàn)實世界。這個工具最終將使開發(fā)人員能夠將詳細的對象——無論是小雕像還是大型建筑——導入到虛擬環(huán)境中,用于電子游戲或工業(yè)數(shù)字孿生。”
在一次演示中,NVIDIA研究人員展示了該模型如何重建米開朗基羅“大衛(wèi)像”這樣的標志性物體以及平板卡車這樣的普通物體。Neuralangelo還可以重建建筑物的內部和外部——以NVIDIA灣區(qū)辦公園區(qū)的詳細3D模型為例進行了演示。
本次發(fā)布相關精彩視頻已在NVIDIA中國西瓜視頻賬號發(fā)布:
數(shù)字文藝復興:NVIDIA Neuralangelo研究重構3D場景
在3D中應用神經(jīng)渲染模型
之前用于重建3D場景的AI模型很難準確捕捉重復的紋理、均勻的顏色和強烈的顏色變化。Neuralangelo采用即時神經(jīng)圖形基元——即NVIDIA Instant NeRF背后的技術——來幫助捕捉這些更精細的細節(jié)。
使用從不同角度拍攝的物體或場景的2D視頻,該模型會選擇從不同角度捕捉的鏡頭來確定物體或場景的深度、大小和形狀,就像藝術家會從多個角度描繪一個物體一樣。
一旦確定了每個鏡頭的相機位置,Neuralangelo的AI就會創(chuàng)建一個粗略的3D場景,相當于雕塑家開始雕刻主體的形狀。
然后,該模型對渲染進行優(yōu)化以銳化細節(jié),就好像雕塑家辛苦雕琢石頭來模仿織物或人的紋理。
最終會生成一個3D物體或大規(guī)模場景,可用于虛擬現(xiàn)實應用、數(shù)字孿生或機器人開發(fā)。
在6月18-22日舉行的CVPR大會上探尋NVIDIA Research的研究成果
在6月18日至22日于溫哥華舉行的CVPR上,NVIDIA Research將展示近30個項目,其中包括Neuralangelo。這些論文的主題涵蓋姿態(tài)估計、3D重建和視頻生成。
其中一個名為DiffCollage的項目是一種創(chuàng)建大規(guī)模內容的擴散法,包括長橫向、360度全景圖和循環(huán)運動圖像。當輸入一個具有標準長寬比的圖像訓練數(shù)據(jù)集時,DiffCollage將這些較小的圖像視為更大視覺片段的一部分——就像一張張拼貼畫。這使得擴散模型能夠生成看上去有凝聚力的大型內容,而無需使用相同比例的圖像進行訓練。
該技術還可以將文本提示轉換為視頻序列,技術演示中使用了預先訓練的擴散模型來捕捉人體動作:
本次發(fā)布相關精彩視頻已在NVIDIA中國西瓜視頻賬號發(fā)布:
DiffCollage 將文本提示轉換為視頻序列
了解有關NVIDIA Research參展CVPR的更多信息。
- 萬通發(fā)展:終止收購索爾思光電60.16%股份
- 聯(lián)特科技預計2024年凈利潤同比增長220.96%—334.25%
- 有方科技預計2024年凈利潤同比增長365.41%
- 800G和400G高端光模塊銷售大增 中際旭創(chuàng)2024年凈利潤增長111.64%—166.85%
- 亞信安全:預計2024年實現(xiàn)扭虧為盈
- Arm發(fā)布芯粒系統(tǒng)架構首個公開規(guī)范,加速芯片技術演進
- 中國鐵塔擬新購一套應急無人直升機空中基站
- 427780臺 中國鐵塔啟動智能維護攝像機產(chǎn)品集中招標
- 規(guī)模267904臺 中國鐵塔啟動2025年自研邊緣網(wǎng)關合作伙伴招標
- 國家數(shù)據(jù)局聲明:未授權任何“數(shù)據(jù)要素×”相關有償活動
免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。