在元宇宙里看時裝秀,會是什么趕腳?
各種布料摩擦細節(jié),不光看得一清二楚,而且就跟真的一樣。
裙擺隨著模特的走動飛舞起來~光是看看,就能知道這件衣服是不是輕盈。
這是圖形學大牛王華民團隊的最新成果,提出了一個基于GPU的預處理器MAS,一張GPU完成實時布料碰撞特效。
比如這件羊毛大衣,就能以每秒37幀的速度實時模擬出來,仿真精度可達5mm。
而且也不光是衣服,連毛毛球、軟皮玩具也能實現(xiàn)逼真的碰撞特效。
其論文收錄于SIGGRAPH 2022。作為全球規(guī)模最大、水平最高的圖形學會議,SIGGRAPH每年接收的論文都代表著當年CG最高水平。
來康康這是一項什么樣的研究?
一張GPU實時模擬碰撞特效
要構(gòu)建真正意義上的元宇宙,首先需要的是一個強大的實時物理仿真模擬引擎。
而當前常見的物理引擎在效果或效率上還遠達不到理想的狀態(tài)。
服裝模擬是所有模擬問題的制高點。
因為服裝的材質(zhì)、碰撞都是最復雜的,解決好服裝模擬,就等于解決了大部分實時物理模擬問題,為未來元宇宙開發(fā)奠定基礎(chǔ)。
從技術(shù)上劃分,實時物理模擬分為流體和形變體模擬兩大類。
相較于流體,形變體的應(yīng)用范圍更加廣泛,比如彈性體模擬、布料模擬、頭發(fā)模擬等,其產(chǎn)業(yè)端的價值也更加清晰,比如在服裝、工業(yè)上的應(yīng)用。
但當前困擾科學家的一道挑戰(zhàn),是完成更高質(zhì)量的實時仿真。
任何形變體的模擬,最后都歸于一個線性求解問題,個中區(qū)別無非就是矩陣內(nèi)部數(shù)值、稀疏程度還有矩陣大小的不同。
因此,如何快速求解也就成為其中一個重要的突破口。
基于這樣的背景,王華民團隊提出了基于GPU的MAS預處理器 (Multilevel Additive Schwarz Preconditioner)。
顧名思義,這一預處理器采用了多層和域(domain)分解的概念。
以往的算法主要依賴在一層網(wǎng)格上處理,這樣域越少越好,不然誤差大。
但此次研究人員則是構(gòu)建多個網(wǎng)格層,這樣使用小的、不重疊的域,可以發(fā)揮GPU并行計算能力。
具體而言,MAS預處理程序可以分成三個階段。
第一階段,利用Morton代碼快速分層分域。
研究人員提出了一種超節(jié)點分割方法和跳過方法,用于空間的初步構(gòu)建。
第二階段,通過單向Gauss-Jordan消除的低成本矩陣預計算,在每個域進行快速的inverse求解。此外,研究人員還開發(fā)了一個選擇性更新方案,以解決輕微的矩陣修改。
第三階段,運行時預處理,從而對矩陣向量快速求解。為了降低計算成本,研究人員發(fā)明了一種對稱矩陣-向量乘法。
實驗表明,MAS預處理器與許多線性和非線性求解器兼容,這些求解器用于帶有動態(tài)接觸的形變體模擬,如PCG、加速梯度下降和L-BFGS。
以最常見的PCG求解器為例,在兩者一起使用時,在GPU上的收斂速率仍然明顯優(yōu)于其他預處理程序,包括GPU上的多網(wǎng)格AmgX。
在達到相同的收斂目標時,MAS預處理器的收斂速度要比其他預處理器快約四倍。
與此同時,MAS預處理器在CPU上也是有效的,其性能也優(yōu)于其他預處理程序,比如英特爾的ILU0和ILUT。
除此之外還發(fā)現(xiàn),MAS預處理器的計算開銷很低。
并行計算時僅為0.118秒,相比之下ILU0、ichol和ILUT的成本為2.50秒、33.8秒和154秒。
研究人員表示,此次為5萬個定點到50萬個頂點區(qū)間規(guī)模的布料和形變體仿真推向了一個更高水平。
未來還將繼續(xù)研究基于GPU域分解(GPU-based domain decomposition)的技術(shù),因為這類算法有很多可以挖掘的空間。
Style3D出品
本次研究團隊來自Style3D研究院王華民所帶領(lǐng)的團隊。
王華民,俄亥俄州立大學前副教授,佐治亞理工學院計算機科學博士,斯坦福大學計算機科學碩士,公認的世界級圖形學科學家。
曾以唯一作者身份完成四篇SIGGRAPH論文,6屆SIGGRAPH/SIGGRAPH Asia技術(shù)論文委員會委員,其學生遍布知名大廠,因為聚焦布料仿真,業(yè)內(nèi)流傳著這樣一句話:
如果你研究布料仿真,就不可能沒讀過王華民教授的論文。
去年8月,他正式加盟國內(nèi)時尚產(chǎn)業(yè)鏈3D數(shù)字化公司——凌迪科技Style3D,任職首席科學家兼凌迪研究院院長。
結(jié)果不到一年時間,就率隊帶來了最新產(chǎn)學研成果,將實時仿真技術(shù)又提升到了新水平。
研究進展如此快速,背后既有世界級技術(shù)團隊的實力加成,也有企業(yè)的產(chǎn)業(yè)化驅(qū)動。
凌迪科技Style3D,創(chuàng)立之初將視線聚焦在最制約服裝行業(yè)效率的服裝設(shè)計開發(fā)環(huán)節(jié)上。
其核心產(chǎn)品,一個是率先打破國外技術(shù)壟斷的3D柔性體仿真工業(yè)軟件Style3D Studio,其二是全球創(chuàng)新的面料數(shù)字化設(shè)計軟件Style3D Fabric,另有研發(fā)全流程協(xié)同平臺Style3D Cloud,以及開創(chuàng)性的數(shù)字時尚內(nèi)容資源商城Style3D Market。
研發(fā)過程中從面輔料選擇、款式設(shè)計、渲染仿真、協(xié)同與展銷等全流程,都可以進行數(shù)字化呈現(xiàn)以及協(xié)同合作,以此來提升研發(fā)效率。
此外,凌迪Style3D還依據(jù)工廠生產(chǎn)標準生成生產(chǎn)資料清單,串起整個生產(chǎn)制造環(huán)節(jié),進一步推動整個行業(yè)鏈路的數(shù)字化。
據(jù)透露,今年6月底凌迪Style3D將有面向元宇宙開發(fā)者的神秘產(chǎn)品發(fā)布。
目前,它的客戶涉及到海內(nèi)外品牌方、ODM(原始設(shè)計制造)商、面輔料商以及泛電商等。
值得一提的是,就在SIGGRAPH收錄結(jié)果出爐同一時間,凌迪Style3D官宣了與牛仔技術(shù)公司Jeanologia的合作。
全球每年生產(chǎn)35%的牛仔褲,都采用了這家公司的環(huán)保技術(shù)。
兩者合作下,牛仔設(shè)計師也能夠直接在Style3D一鍵調(diào)用牛仔褲紋樣及水洗效果圖案等,無需制作牛仔褲實樣,即可呈現(xiàn)牛仔褲水洗等多種工藝的設(shè)計效果。
而且這樣高仿真的數(shù)字牛仔褲,還可以直接拿去營銷展示和售賣。
事實上,除了推動整個服裝產(chǎn)業(yè)鏈效率外,還有更現(xiàn)實的全球性問題能得到緩解,即現(xiàn)在熱議的碳中和、碳排放。
當前,紡織服裝已經(jīng)成為全球第二大污染產(chǎn)業(yè),全球每年約有1280萬噸服裝被填埋焚燒,制作服裝所排放的廢水占全球總量的20%,并承擔著全球10%碳排放。
甚至于,還有15%紡織產(chǎn)品會遭遇不被使用,直接走向燒毀的命運,從而造成二次污染。
而一旦將整個產(chǎn)業(yè)從研發(fā)、生產(chǎn)到最后的商品展銷等全流程搬上數(shù)字平臺,污染問題就能得到有效解決,可持續(xù)時尚才真正有落實的方向。
圖形學的產(chǎn)業(yè)發(fā)展
最后,回到這篇被收錄SIGGRAPH的研究成果本身。
可以看到的是,它不像是英偉達、谷歌每年傳統(tǒng)藝能——各種炫酷逼真的特效技術(shù),以彰顯企業(yè)的前沿技術(shù)實力。
而是從更垂直的產(chǎn)業(yè)角度出發(fā),技術(shù)迭代不太容易被人感知,但切實地解決了產(chǎn)業(yè)問題。
一方面,這說明圖形學技術(shù)已經(jīng)來到了產(chǎn)業(yè)端創(chuàng)造價值。
圖形學最有可能、也是最大限度落地的領(lǐng)域,不是熱議的電影、游戲,而是像服裝、工業(yè)這等產(chǎn)業(yè)領(lǐng)域。
另一方面還說明中國在圖形學上技術(shù)水平并不弱,會像AI一樣從前沿到產(chǎn)業(yè)加速前進。
從此次SIGGRAPH論文收錄結(jié)果可以看到,中國團隊已經(jīng)占據(jù)名單的一大半,其中不乏高校以及企業(yè)代表。
隨著圖形學產(chǎn)業(yè)價值更加顯性,更多世界級大牛參與進來。企業(yè)也將通過設(shè)立研究院、啟動獎學金等方式吸引更多高校人才加入。
以凌迪Style3D為例,去年就啟動了凌迪圖形學獎學金計劃,每位獲獎?wù)邔@得3萬人民幣的現(xiàn)金獎勵,第一期就有清華、浙大、中科大、南開、山大等10名碩博士獲得。
如此一來,產(chǎn)學研閉環(huán)一形成,更有利于圖形學產(chǎn)業(yè)化的長期發(fā)展。
如今爆火的元宇宙,最終擠掉泡沫。像當初的AI一樣,只有將底層技術(shù)與產(chǎn)業(yè)相結(jié)合,發(fā)揮更長遠的價值。
而這一點,中國的企業(yè)已經(jīng)先行一步。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )