云天勵飛人工智能技術研究多項成果再獲國際認可。近日,將于今年4月在日本舉行的人工智能領域一大頂級學術會議——人工智能及統(tǒng)計學大會(International Conference on Artificial Intelligence and Statistics,簡稱AISTATS會議)收錄結(jié)果揭曉,云天勵飛AI技術部王孝宇博士與美國愛荷華大學楊天寶教授領導的團隊合作的論文《A Robust Zero-Sum Game Framework for Pool-based Active Learning》入選。該論文提出了一種基于穩(wěn)健優(yōu)化的博弈主動學習算法,這有助于節(jié)省多種監(jiān)督學習的標注成本。而在不久前,云天勵飛另一篇有關采用遞歸網(wǎng)絡模型解決視頻人臉關鍵點定位的論文被計算機視覺頂級學術期刊IJCV收錄。
用遞歸神經(jīng)網(wǎng)絡 為人臉關鍵點檢測建立時間和空間聯(lián)系
云天勵飛被IJCV 2018收錄的論文名為《RED-Net: A Recurrent Encoder-Decoder Network for Video-based Face Alignment》,團隊在業(yè)界首次提出采用遞歸網(wǎng)絡模型解決視頻人臉關鍵點定位問題,以此來減少訓練模型的復雜度,并實現(xiàn)對大姿態(tài)人臉和部分遮擋關鍵點的精確定位。此項工作的參與成員還包括IBM Watson研究院和新澤西州立大學。
Overview of the recurrent encoder-decoder network: (a) encoder-decoder (Section 3.1); (b) spatial recurrent learning (Section 3.2); (c) temporal recurrent learning (Section 3.3); and (d) supervised identity disentangling (Section 3.4). fenc, fdec, fsr n, ft r n, fc l s are potentially nonlinear and multi-layered mappings
據(jù)悉,傳統(tǒng)視頻人臉關鍵點檢測通常使用級聯(lián)化的的關鍵點坐標回歸模型對關鍵點進行由粗到細的定位。在進行視頻逐幀人臉關鍵點定位時,通過使用上一幀人臉的檢測框和關鍵點信息對該幀的定位任務進行更精確的初始化。這類級聯(lián)回歸模型不同級間并不共享參數(shù),模型訓練對數(shù)據(jù)量的要求較高。
An unrolled illustration of spatial recurrent learning. The response map is pretty coarse when the initial guess is far away from the ground truth if large pose and expression exist. It eventually gets refined in the successive recurrent steps
云天勵飛團隊等在論文中提出了一種新的遞歸編碼解碼器(Recurrent Decoder-Encoder)模型結(jié)構(gòu)來解決視頻人臉關鍵點定位問題。在空間域上,該模型變傳統(tǒng)多級級聯(lián)模型為單一遞歸模型,大幅度減少模型的復雜度。在時間域上,該模型將編碼器生成的嵌入特征中的時變因素和時不變因素進行解耦,并對時變部分用遞歸網(wǎng)絡進行建模學習。
An unrolled illustration of temporal recurrent learning. Cid encodes temporalinvariant factor which subjects to the same identity constraint. Cpe encodes temporalvariant factors which is further modeled in ft R N N
相比傳統(tǒng)視頻人臉關鍵點處理中只使用上一幀結(jié)果初始化,這種時域遞歸網(wǎng)絡能夠?qū)W習和利用更長時間范圍內(nèi)關鍵點的位置信息和變化規(guī)律,實現(xiàn)對大姿態(tài)人臉和部分遮擋關鍵點實現(xiàn)精確定位。
據(jù)介紹,與國際主流方法相比較,在7關鍵點和68關鍵點兩種模式下,采用遞歸網(wǎng)絡模型定位視頻人臉關鍵點的方法,在Talking Face, Face Moive 和 300VW 三個公開數(shù)據(jù)集平均誤差都顯著低于這些主流方法。
將模型訓練和標注選取結(jié)合 提升模型訓練效果
大數(shù)據(jù)時代來臨,人工智能領域面臨的一大難題是如何獲取監(jiān)督學習所需要的大數(shù)據(jù)對應的數(shù)據(jù)標注。對于監(jiān)督學習來說,并不是每個標注數(shù)據(jù)對模型訓練的幫助程度都是等同的,即有些數(shù)據(jù)對模型訓練幫助更大。而主動學習則是研究如何選取潛在對模型訓練更大的未標注數(shù)據(jù)去給予它們標注,從而達到提升模型訓練效果、節(jié)省人工標注成本的目的。
不過,目前已存在的主動學習算法大多或是基于分類模型產(chǎn)生的數(shù)據(jù)不確定性并利用一些啟發(fā)式策略進行標注數(shù)據(jù)選取;或是利用其它理論如信息理論、學習理論定義數(shù)據(jù)不確定性并產(chǎn)生一些優(yōu)化式策略進行標注數(shù)據(jù)選取。
分開進行標注數(shù)據(jù)選取和模型訓練可能會存在二者步調(diào)不統(tǒng)一的情況,從而無法得最優(yōu)的結(jié)果?!禔 Robust Zero-Sum Game Framework for Pool-based Active Learning》提出的思路并不像之前其它算法那樣把模型訓練和標注選取兩個模塊割裂開來,而是利用博弈論將其結(jié)合在一起,并引入穩(wěn)健約束進行優(yōu)化,以獲得最直接的標注數(shù)據(jù)選取,以及模型訓練效果的提升。
作者基于博弈論提出的優(yōu)化目標函數(shù)如下:
其中w代表模型參數(shù),如支持向量機(SVM),深度神經(jīng)網(wǎng)絡(DNN)等;p為單個數(shù)據(jù)產(chǎn)生的損失的權重(由于是主動學習場景,考慮到存在未標注數(shù)據(jù),作者使用的是對于所有可能標注的期望損失
作者采取在線梯度下降(online gradient descent)更新模型參數(shù)w:
作者采取鏡像下降(mirror descent)更新數(shù)據(jù)損失權重p:
由于加入了穩(wěn)健約束,作者利用近似映射的方法矯正p:
對于方差小的數(shù)據(jù),加入穩(wěn)健約束可以獲得更好的模型泛化效果:
當數(shù)據(jù)方差數(shù)量級小于1/n時,泛化錯誤將為O(1/n)而不是通常的O(1/sqrt(n)).
此外,作者運用了在線算法的分析思路證明了算法收斂的遺憾界限(regret bound):
最后,作者進行了對于SVM和DNN的主動學習實驗,并采用了一些知名機器學習算法效果對比數(shù)據(jù)集(benchmark datasets),效果如下 (橫軸為標注數(shù)據(jù)數(shù)目,縱軸為測試準確度,RZSG為論文提出的算法):
MNIST
CIFAR 10
- 滴滴春節(jié)戰(zhàn)疫:日均近200萬司機逆行,8500部失聯(lián)手機找回記
- 華為未來可期:梁華預測2024年銷售收入將破八千億,新篇章即將開啟
- 豐田上海獨資公司揭秘:2027年雷克薩斯純電車型即將國產(chǎn)
- F5中國擁抱未來:三大策略引領AI應用,汽車行業(yè)拓展及渠道伙伴拓展
- 小鵬汽車新征程:下半年邁入全場景L3自動駕駛,智駕新紀元正式開啟
- 物質(zhì)豐富社會缺孩子時代來臨:梁建章警告
- 小鵬重返銷量冠軍,推出超值五年分期政策,讓購車更輕松!
- 同程旅行發(fā)現(xiàn):跨境返崗更實惠,春節(jié)后熱門線路選擇新攻略
- 蔚來汽車公布維權進展:部分侵權賬號負責人員遭法律制裁,正義終將到來
- 2025年春節(jié)檔票房達95.1億,新片《哪吒2》強勢奪冠,黑馬電影層出不窮
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。