近日,計算機視覺三大頂級會議之一CVPR正式公布了 2023年的接收結果,如視首席科學家潘慈輝帶領團隊提交的最新研究成果《TexIR: Multi-view Inverse Rendering for Large-scale Real-world Indoor Scenes(大規(guī)模室內真實場景的多視角逆渲染)》成功入圍。該項研究,在真實空間的更深層次數(shù)字化層面取得突破進展。此次全新逆渲染技術研究成果的入圍,不僅意味著如視在三維實景模型重建和混合現(xiàn)實領域的研究已獲得了國際學術界的高度認可,更標志著如視的算法能力已在理論研究、技術應用等層面步入國際領先水平。
對物理世界的三維重建,作為計算機圖形學和計算機視覺領域的熱點課題之一,已隨著技術的不斷成熟,被越來越廣泛地應用于營銷、空間數(shù)字化管理、泛娛樂、虛擬現(xiàn)實等領域。目前市面主流的算法,通過空間幾何模型與紋理貼圖的方式,在場景的外觀還原度上與真實世界看起來幾近相同。
目前的三維重建方式,僅能對場景的外觀特征加以還原,但無法對場景內諸如光照、反射率、粗糙度、等更深層次的屬性加以數(shù)字化,導致無法對這些深層信息進行查詢和編輯,更無法將其更有價值地轉化為渲染引擎可使用的PBR渲染資產,生成極具真實感的渲染效果。
逆渲染原理
而如視團隊本次開創(chuàng)性提出面向真實室內場景的多視角逆渲染框架,可基于精準的空間數(shù)據(jù),反向推測獲取對諸如光照、反射率、粗糙度等場景內在屬性,在三維重建的基礎上恢復出貼近真實場景的光照和材質表現(xiàn),在重建效果、成本效率、應用范圍等維度實現(xiàn)全面提升。
逆渲染技術實操與應用
如視首席科學家潘慈輝對此表示:“我們創(chuàng)造的全新深度逆渲染框架,真正意義上實現(xiàn)了對真實世界更深層的數(shù)字化,解決了以往逆渲染方法難以在真實場景下恢復物理合理的材質和光照以及多視角一致性的問題,為三維重建和混合現(xiàn)實的落地應用帶來了更大想象空間。”
1.更貼近真實的場景還原效果
與過往采用合成數(shù)據(jù)訓練的方法不同,如視提出的全新深度逆渲染框架,首次引入了“層級式場景先驗”,通過多階段的材質優(yōu)化,結合如視數(shù)字空間中精準數(shù)據(jù),對空間內光照、反射率、粗糙度物理屬性進行分層級的精準預測,并將預測結果無縫轉化為物理合理、全局一致的多類型材質貼圖等渲染資產,并可適配目前主流渲染引擎。
2.更低的計算成本
近年來,為了更好地解決逆渲染問題, 同時減少對訓練數(shù)據(jù)的依賴, 可微渲染的方法被提出,即通過“微分求導”的方式,使正向渲染可微分,進而將梯度反向傳播至渲染參數(shù),最終優(yōu)化得到基于物理的待求解參數(shù)。由于復雜室內場景存在大量的復雜光學效應,如遮擋、陰影,在可微渲染中建模全局光照會帶來高昂的計算成本。如視本次提出的光照表示模型可以高效準確地表示室內場景內的全局光照,極大地提升了逆渲染方法的效率。據(jù)實驗分析統(tǒng)計,基于如視的逆渲染框架,相較傳統(tǒng)方式,計算速度大幅提升近24倍,數(shù)據(jù)內存容量也實現(xiàn)了成倍縮減。
3.更大的重建規(guī)模
基于如視的精準數(shù)字空間模型,與高效準確的混合光照表示,全新的逆渲染框架引入多種場景先驗,解決了以往NeRF-like的神經逆渲染方法無法建模大尺度室內場景的問題。
未來,全新的逆渲染技術將有望開啟更為廣闊的MR應用,如室內材質編輯、新視圖合成、光照調整、物體空間融入等。通過對真實世界實現(xiàn)更深層數(shù)字化,如視將進一步加速實現(xiàn)數(shù)字空間的建設,發(fā)揮算法及技術產品優(yōu)勢,推進研究成果產業(yè)化,為商業(yè)零售、工業(yè)設施、文博會展、公共事務、家居家裝、房產交易等行業(yè)帶來數(shù)字化應用升級的全新發(fā)展機遇。
關于CVPR:
CVPR(IEEE Conference on Computer Vision and Pattern Recognition,即IEEE國際計算機視覺與模式識別會議)作為計算機視覺領域最頂級的會議,每年都會吸引大量研究機構和高校參會。近年來,CVPR 的投稿數(shù)量也在持續(xù)增加。據(jù)官方信息統(tǒng)計,本屆CVPR有效投稿9155篇,比去年增加了 12%,創(chuàng)下新紀錄;收錄2360 篇,接收率為 25.78%。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )