注:ACM SIGGRAPH是迄今為止世界上影響最廣、規(guī)模最大,也是最權(quán)威的集科學(xué)、技術(shù)、藝術(shù)、商業(yè)于一身的圖形學(xué)技術(shù)展示和學(xué)術(shù)會(huì)議。自1974年首屆會(huì)議以來,已舉辦50屆,每年有上萬(wàn)專家學(xué)者參加。SIGGRAPH制定了非常嚴(yán)格的論文評(píng)審流程,每篇文章需要至少5名相關(guān)專家提供詳細(xì)評(píng)審意見,平均錄用率在20-30%左右,ACM SIGGRAPH 2023接收投稿論文近700篇,錄用212篇。
Style3D此次6篇論文成功入選 SIGGRAPH 2024,并將在7月底的會(huì)議現(xiàn)場(chǎng)發(fā)表,入選所占比例之高,進(jìn)一步證實(shí)了Style3D在SIGGRAPH這一國(guó)際頂級(jí)學(xué)術(shù)平臺(tái)上所展現(xiàn)的科研實(shí)力。也側(cè)面體現(xiàn)Style3D正以創(chuàng)新技術(shù)引領(lǐng)行業(yè)發(fā)展,成為行業(yè)的標(biāo)桿和領(lǐng)跑者。
此次6篇論文,以圖形學(xué)+AI技術(shù)結(jié)合研究,從多材質(zhì)的高仿真效果提升、AI實(shí)現(xiàn)部分自動(dòng)化工序到AI增強(qiáng)3D效果、與AR/MR中的交互提升,涵蓋前端設(shè)計(jì)到后端營(yíng)銷展示的全鏈路場(chǎng)景的技術(shù)研究,且所有前沿技術(shù)研究,在未來都將于Style3D全套工具中落地應(yīng)用。
以下是6篇論文的部分詮釋:
A Dynamic Duo of Finite Elements and Material Points
有限元與材料點(diǎn)的動(dòng)態(tài)組合
本文介紹了一種集成有限元方法(FEM)和材料點(diǎn)方法(MPM)的新方法,用于增強(qiáng)多材料系統(tǒng)的仿真。有限元法傳統(tǒng)上用于對(duì)布匹等拉格朗日固體建模,而材料點(diǎn)法則擅長(zhǎng)模擬雪和沙粒等發(fā)生顯著變形和拓?fù)渥兓牟牧?。我們方法的核心是混合隱式-顯式時(shí)間積分(IMEX)策略。盡管隱式 FEM 和顯式 MPM 對(duì)時(shí)間步長(zhǎng)的要求不同,但它們可以在同一框架內(nèi)共存,從而確保準(zhǔn)確的雙向耦合。
●此項(xiàng)研究將為未來的多材料仿真研究奠定基礎(chǔ),有可能推動(dòng)沙地或雪地等極端環(huán)境中防護(hù)服的仿真。
Automatic Digital Garment Initialization from Sewing Patterns
從縫制樣板自動(dòng)初始化數(shù)字服裝
隨著數(shù)字時(shí)尚和生成式人工智能技術(shù)的快速發(fā)展,需要一種自動(dòng)方法將數(shù)字縫紉圖樣轉(zhuǎn)化為人臺(tái)的合體服裝。一個(gè)關(guān)鍵的挑戰(zhàn)是如何配置縫紉件的初始排列,使其避免折疊和交叉。在這項(xiàng)工作中,我們通過采用AI分類、啟發(fā)式方法和數(shù)值優(yōu)化來解決這個(gè)問題,最終開發(fā)出一種創(chuàng)新的自動(dòng)服裝初始化系統(tǒng)。
●該研究系統(tǒng)已部分集成到 Style3D 產(chǎn)品中,并有望進(jìn)一步增強(qiáng),以進(jìn)一步減輕技術(shù)設(shè)計(jì)師在創(chuàng)建數(shù)字服裝時(shí)的工作量。
Neural-Assisted Homogenization of Yarn-Level Cloth
紗線級(jí)織物的神經(jīng)輔助均質(zhì)化
現(xiàn)實(shí)世界中的織物由線和紗組成,表現(xiàn)出復(fù)雜的應(yīng)力應(yīng)變關(guān)系,這給使用基于連續(xù)體的模型進(jìn)行快速模擬的均質(zhì)化帶來了巨大挑戰(zhàn)。在本文中,我們介紹了一種專為模擬紗線級(jí)織物而設(shè)計(jì)的神經(jīng)均質(zhì)化構(gòu)成模型。與之前的均質(zhì)化構(gòu)成模型相比,我們的模型在穩(wěn)定性方面有了實(shí)質(zhì)性的改進(jìn),并在大時(shí)間步長(zhǎng)下實(shí)現(xiàn)了高達(dá)兩個(gè)數(shù)量級(jí)的提速。
●我們正在將該模型集成到 Style3D 產(chǎn)品中,旨在提高未來應(yīng)用中針織物模擬的準(zhǔn)確性。此項(xiàng)技術(shù)研究的成果,代表行業(yè)頂尖水平,未來也將成為Style3D 產(chǎn)品遠(yuǎn)超其他的技術(shù)力證。
Super-Resolution Cloth Animation with Spatial and Temporal Coherence
具有時(shí)空一致性的超分辨率布料動(dòng)畫
制作超分辨率布料動(dòng)畫,為粗糙的布料網(wǎng)格添加精細(xì)的褶皺細(xì)節(jié),需要在各幀之間保持空間一致性和時(shí)間連貫性。在本文中,我們介紹了一個(gè)旨在解決這些問題的AI框架,其中包含一個(gè)仿真校正模塊和一個(gè)基于網(wǎng)格的超分辨率模塊。我們通過從簡(jiǎn)單布片到復(fù)雜服裝的各種動(dòng)畫示例,展示了我們方法的有效性。
●此項(xiàng)研究是在3D模擬基礎(chǔ)上,運(yùn)用AI增強(qiáng)3D細(xì)節(jié)效果。我們預(yù)計(jì)這將在具有實(shí)時(shí)模擬功能的 Style3D 產(chǎn)品(如 Style3D MixMatch)中證明其價(jià)值。
High-Quality Surface Reconstruction using Gaussian Surfels
用高斯曲面進(jìn)行高質(zhì)量曲面重構(gòu)
我們介紹了一種新穎的基于點(diǎn)的表示法--高斯曲面,它將三維高斯點(diǎn)的靈活優(yōu)化能力與曲面的表面對(duì)齊特性融合在一起。這種融合是通過將三維高斯點(diǎn)的 z 比例設(shè)為零來實(shí)現(xiàn)的,從而有效地將原始的三維橢圓體轉(zhuǎn)化為二維橢圓。
●基于可視光,可用于手機(jī)攝像頭進(jìn)行三維重建,并提升三維重建精度。實(shí)驗(yàn)結(jié)果表明,我們的方法顯著提高了表面重建性能,并顯示了從手持設(shè)備直接重建數(shù)字服裝的潛力。
VR-GS: A Physical Dynamics-Aware Interactive Gaussian Splatting System in Virtual Reality
VR-GS:虛擬現(xiàn)實(shí)中的物理動(dòng)力學(xué)感知交互式高斯濺射系統(tǒng)
在這項(xiàng)工作中,我們介紹了 VR-GS 系統(tǒng),該系統(tǒng)旨在為虛擬現(xiàn)實(shí)中以人為中心的 3D 內(nèi)容交互提供無縫、直觀的體驗(yàn)。我們通過實(shí)施物理動(dòng)態(tài)感知交互式高斯拼接(GS)技術(shù),輔以高效的兩級(jí)嵌入策略和可變形體仿真來實(shí)現(xiàn)這一目標(biāo)。這些要素共同確保了 VR-GS 能夠以高度逼真的動(dòng)態(tài)響應(yīng)實(shí)時(shí)運(yùn)行。
●該系統(tǒng)與 Style3D 的內(nèi)部實(shí)時(shí)仿真引擎 Style3D Simulator 相集成,預(yù)計(jì)將大大提高 AR/MR 環(huán)境中人類與數(shù)字服裝的互動(dòng)性。
可以發(fā)現(xiàn),此次的技術(shù)方向有了很多AI的身影,傳統(tǒng)的服裝設(shè)計(jì)和生產(chǎn)流程繁瑣且耗時(shí),但AI技術(shù)的引入,可以優(yōu)化設(shè)計(jì)流程,縮短產(chǎn)品上市周期。在發(fā)表的論文中,已有多項(xiàng)研究在Style3D相關(guān)產(chǎn)品中有所應(yīng)用,如基于AI的自動(dòng)化排料技術(shù)、AI增強(qiáng)材質(zhì)細(xì)節(jié)效果等,未來,這些技術(shù)的落地應(yīng)用,不僅提升了設(shè)計(jì)效率,也將釋放更多生產(chǎn)力。
不久將來,Style3D還將重磅推出AI技術(shù)與3D精準(zhǔn)設(shè)計(jì)融合的創(chuàng)新底層架構(gòu)——AIGP(AI Generate Pattern),該系統(tǒng)旨在全面集成AI能力,覆蓋從潮流趨勢(shì)預(yù)測(cè)、智能化設(shè)計(jì)與制版、精準(zhǔn)布料優(yōu)化配置、高仿真模擬成衣的全產(chǎn)業(yè)鏈條,實(shí)現(xiàn)AI+3D技術(shù)對(duì)產(chǎn)業(yè)升級(jí)的實(shí)質(zhì)性賦能。
Style3D期望以“AI+3D+AI”的技術(shù)整合策略,使服裝設(shè)計(jì)與研發(fā)流程得到前所未有的簡(jiǎn)化和優(yōu)化,提升從創(chuàng)意設(shè)計(jì)到市場(chǎng)推廣的整個(gè)產(chǎn)業(yè)鏈條的銜接性與協(xié)同效率,從而促進(jìn)更迅速且更為精確的市場(chǎng)響應(yīng)機(jī)制,加速“概念到消費(fèi)”(Concept-to-Consumer)的轉(zhuǎn)化速度。引領(lǐng)服裝產(chǎn)業(yè)步入智能化、高效化的新紀(jì)元。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )