ResNet成阿爾法元核心技術 曠視孫劍詳解Zero的偉大與局限

2017年10月19日,DeepMind團隊發(fā)表了迄今最強版本的AlphaGo——AlphaGo Zero,其中一個重要模塊是出自華人團隊的深度殘差網(wǎng)絡ResNet。就此背景,新智元采訪了深度殘差網(wǎng)絡ResNet作者之一,曠視科技Face++首席科學家孫劍博士。孫劍認為,AlphaGo Zero技術提升足夠偉大,但在真實技術落地過程中還有著眾多局限,并指出未來的主流深度學習技術還將會圍繞大數(shù)據(jù)訓練模式的方式展開。在采訪中,孫劍還談了計算機視覺遠遠沒有被解決,“全世界的研究人員一起來做都不夠”。

圖: ResNet 作者之一、曠視科技Face++首席科學家孫劍博士

AlphaGo Zero的偉大與局限:兩大核心要素實現(xiàn)極簡算法,“無師自通”短期無法成為AI主流

“AlphaGo Zero的搜索過程簡化了很多,例如把以前系統(tǒng)中的兩個網(wǎng)絡合并成一個網(wǎng)絡,將深度殘差網(wǎng)絡的輸入做最簡化?!睂O劍博士在談到本次AlphaGo Zero的技術特點時說:“把19x19棋局圖像直接送給神經(jīng)網(wǎng)絡,讓神經(jīng)網(wǎng)絡看著棋盤做決策,這個非常簡潔。”

孫劍表示,本次AlphaGo Zero的提升主要有兩個核心要素,一個是啟發(fā)式搜索,一個是深度殘差神經(jīng)網(wǎng)絡,而這兩者又實現(xiàn)了完美結合。其中,啟發(fā)式搜索的思想非常樸素,是個針對問題設計的一個高級定制版蒙特卡洛數(shù)搜索算法;而深度殘差神經(jīng)網(wǎng)絡則讓簡單的搜索算法極大地提升了效率。

深度殘差神經(jīng)網(wǎng)絡(ResNet)在2015年由孫劍在微軟領導的視覺團隊率先提出,并在當年的ImageNet以及MS COCO兩大學術競賽中包攬五項冠軍。ResNet一個重要的突破是實現(xiàn)了152層的網(wǎng)絡深度,這讓一些非常復雜的函數(shù)做映射時的效率與有效性得到了極大的提升。結合了ResNet的強大網(wǎng)絡使AlphaGo Zero能夠快速、準確地學習每一子的落子概率和對整個棋局進行判斷。

“AlphaGo Zero的偉大之處是第一次讓機器可以不通過任何棋譜,在只告訴規(guī)則的前提下,完全從隨機開始,而且只在一臺有TPU的單機上運行,不到3天就超越柯潔版的水平,最終成為圍棋大師,這種無師自通的學習模式在AI整個發(fā)展上是具有里程碑意義的?!睂O劍博士講到AlphaGo Zero的技術意義時說。“但是,這種‘無師自通’在很多AI落地中也存在一些局限,因為嚴格講,圍棋規(guī)則和判定棋局輸贏也是一種監(jiān)督信號。因此,說人類無用,或者說機器可以自己產(chǎn)生認知,都沒有準確地理解AlphaGo Zero。”

雖然在技術上令人驚艷,但在很多AI行業(yè)落地中,所謂的無師自通或者弱監(jiān)督學習在短期還是無法成為主流。目前人工智能落地解決的很多事情,實際上都是在模擬人類的某一種技能,讓機器應用這一技能去完成任務,而這需要海量的數(shù)據(jù)與更多的信號輸入。以曠視Face++所擅長的人臉識別為例,人臉識別是人類特有的一種能力,與演化和后天習得有關,把這種能力輸出給機器,就需要人的監(jiān)督信號。所以,在今后很長一段時間內,監(jiān)督學習依然是AI研究與AI商業(yè)化的主流方向。

在創(chuàng)業(yè)公司也做基礎研究:如何做更好、更小的網(wǎng)絡

對于這次ResNet被AlphaGo Zero論文引用,孫劍顯然非常開心,還特意發(fā)了朋友圈。“這次應用在AlphaGo Zero中的ResNet殘差神經(jīng)網(wǎng)絡,曾獲得了CVPR2016的最佳論文獎,我也非常高興這個技術可以應用在AlphaGo Zero系統(tǒng)中,當然ResNet并非我一人的功勞,它應當歸功于團隊的齊心之作和微軟亞洲研究院開放的研究環(huán)境。目前,我在曠視科技(Face++)也正在打造這樣的開放環(huán)境和原創(chuàng)精神?!?/p>

加入曠視以后,孫劍的研究和交流步伐也沒有停下。他現(xiàn)在是曠視的首席科學家,同時也是曠視研究院的院長。雖然在采訪中,“商業(yè)化”、“場景”、“落地”等非?!皠?chuàng)業(yè)公司”的詞常常出現(xiàn)在孫劍的論述中。但是,孫劍認為,在創(chuàng)業(yè)公司做研究和在大企業(yè)做研究實際并沒有什么不同?!白鲅芯亢艽蟮囊粋€點就是,別人都往那邊走的時候,你要看看別的方向做不做?!睂O劍說。

這樣做的一個結果,是曠視研究院在今年7月提出的ShuffleNet,ShuffleNet專門為了移動應用而生,在設備提供的計算量很小的時候也能快速響應。“卷積神經(jīng)網(wǎng)絡在設計空間有幾個重要的維度,比如深度、卷積核個數(shù),卷積核大小以及特征圖,每一層的計算復雜度完全取決于這幾個參數(shù)?!睂O劍說:“我們目前得出的結論是:一個網(wǎng)絡的真正性能,主要取決于其計算復雜度。如果新的網(wǎng)絡結構沒有大的變化,基本是計算力決定這個網(wǎng)絡性能有多好?!?/p>

為了適應移動端的計算力,ShuffleNet在結構上繼承了殘差網(wǎng)絡(ResNet)的設計思想,并在此基礎上做出了一系列改進來提升模型的效率:首先,使用逐通道卷積替換原有的3x3卷積,降低卷積操作抽取空間特征的復雜度;將原先結構中前后兩個1x1逐點卷積分組化,并在兩層之間添加通道重排操作,進一步降低卷積運算的跨通道計算量。

圖: ShuffleNet結構單元

ShuffleNet的主要吸引力在于,它使用的是任何人都可以在任何深度學習框架中輕松實現(xiàn)的簡單、標準的操作(分組化卷積 + channel shuffling)。這對于許多應用都非常有用,事實證明,ShuffleNet發(fā)布后也得到同行的廣泛應用。任何人都能用,而且易于使用、容易實施,能快速改進性能,這正是我們需要的研究,這樣的研究在未來也將變得愈發(fā)重要。

除了像ShuffleNet這樣通過網(wǎng)絡設計的方式把計算量降下來,曠視在去年還發(fā)表了一項工作DoReFaNet,走的低精度的路子,把內部的數(shù)表示從浮點型,切換到定點或者更低位的表示,它可以是網(wǎng)絡中的權重,也可以是網(wǎng)絡中的特征。DoReFaNet訓練中的梯度用Low-bits表示,“因為這個網(wǎng)絡的權重、激活,以及梯度分別用一位、兩位、以及四位來表示,所以我們研究院就叫這個網(wǎng)絡DoReFa-Net?!?/p>

在今年的ICCV上,孫劍和曠視的研究人員Yihui He,以及ResNet的另一位作者張祥雨(以前也在微軟亞洲研究院,現(xiàn)在和孫劍一起加盟曠視)合作,也有一篇論文發(fā)表,題為《加速極深神經(jīng)網(wǎng)絡的特征剪枝》(Channel Pruning for Accelerating Very Deep Neural Networks),繼續(xù)在降低計算量的這一方向上發(fā)力。

剪枝(Pruning)這種方法,是在網(wǎng)絡訓練好以后,把里面冗余度最大的表示(Channel)去掉,重新訓練網(wǎng)絡,這樣網(wǎng)絡體積比以前小,而精度跟原來一樣甚至更好;當然精度也有可能稍稍降低一點,但都在產(chǎn)品應用可以接受的范圍內。

孫劍介紹說,現(xiàn)在的神經(jīng)網(wǎng)絡分支比較多且零碎,以前的剪枝方法已經(jīng)不再適用?!拔覀冞@個方法第一次對新的現(xiàn)代深度神經(jīng)網(wǎng)絡做有效剪枝的方法,剪枝能夠和低精度、ShuffleNet結合在一起,實現(xiàn)更小、更經(jīng)濟的網(wǎng)絡?!?/p>

孫劍說,這是他們的一個基礎研究,并沒有局限于人臉或圖像識別。作者在論文中寫道,我們剪枝過的VGG-16通過5倍加速實現(xiàn)了最先進的結果,同時只增加了0.3%的誤差。更重要的是,我們的方法能夠加速ResNet,Xception等現(xiàn)代網(wǎng)絡,分別只有1.4%、1.0%的精度損失,這是非常重要的。

曠視研究院在今年的CVPR有5篇文章發(fā)表,2018年的CVPR截稿時間是11月,大家也在積極準備。不過,曠視研究院對發(fā)文章的數(shù)量沒有要求,“我從來不鼓勵數(shù)量,我看的是質量,”孫劍說:“我以前寫論文也沒有特別多,但哪怕只有一篇文章,能夠被用在像AlphaGo這樣的系統(tǒng)上,那就有20倍的效果。”

創(chuàng)建曠視研究院,吃一碗面挖到實力人才

現(xiàn)在,孫劍到公司每天第一件事情,就是去網(wǎng)上看有沒有新的、有意思的論文發(fā)表出來。曠視內部也有論文討論小組,大家會把看到的論文或者自己的實現(xiàn)/復現(xiàn)發(fā)到群里面。孫劍每周都會跟每一個小組進行非常深入的研究,將他以前做研究的思路和方法分享給大家,供年輕人參考,營造積極創(chuàng)新的氛圍?!拔颐刻於紩栕约?,我應該做什么事情,讓大家都有清晰的目標,讓大家能夠發(fā)揮自己的潛力去做這些事情?!睂O劍說,而這就是他認為他自己最核心的任務。

“如果說我有KPI,那么我的KPI就是在曠視研究院把創(chuàng)新的環(huán)境做好,讓年輕人在這里能夠發(fā)揮最大的潛力來做創(chuàng)新,把這個組織越做越強,越做越大,”孫劍說:“而這樣做附帶的效果,就是公司的產(chǎn)品從研究中實現(xiàn)更強大的競爭力和生命力,公司整體也能得到更好的商業(yè)回報?!?/p>

現(xiàn)在,曠視研究院一共有80多人,分布在北京、西雅圖、南京等城市,目前還有至少2個分部正在籌建中。孫劍說,曠視研究院還將繼續(xù)擴大,“隨著公司的發(fā)展成比例擴大”。對于人才選擇,孫劍給出了幾個標準:首先,數(shù)學一般好就行,其次,編程能力要很好,最后,潛力要很大。孫劍解釋說,深度學習現(xiàn)在還是一個實驗性的科學,很多的結論都是從實驗中得來,因此需要快速做出東西來迭代,這對編程能力提出了很高要求,而要能夠很好地運行系統(tǒng),數(shù)學里線性代數(shù)學很好就可以了。

曠視研究院現(xiàn)在有基本任務組(分類、檢測、圖像分割、視頻分析)、硬件組、平臺組、引擎組,在第二輪面試的時候都會與孫劍直接會面。除了(校園)招聘,挖掘實力人才加盟也是曠視的一條道路,而這里孫劍本人的名望、實力和影響力無疑也是主要的吸引因素。最典型的例子,就是孫劍邀請到前Adobe首席科學家王玨,后者于今年5月加盟曠視,帶領曠視在西雅圖的研究院。

圖:曠視Face++西雅圖研究院主任 王玨博士

“我跟王玨博士認識了很多年,每次開會都會遇到,我們非常了解彼此的工作,我非常欣賞王玨博士的工作——PhotoShop里好幾個非常創(chuàng)新的功能都是出自王玨之手,他也發(fā)表了很多高質量的SIGGRAPH論文,他的風格其實跟我很類似,我們彼此都很認可?!睂O劍說。

王玨博士在Adobe工作了9年,2016年萌生尋找新環(huán)境繼續(xù)挑戰(zhàn)自己的想法。當時,王玨博士收到了包括谷歌、Facebook、騰訊、阿里等許多公司的邀請。最終成功招攬到他的是曠視?!拔胰フ宜浅K炀痛饝?。”孫劍笑著說:“我就請他吃了碗面。”

計算機視覺問題遠遠沒有被解決,投入多少人力都不夠

對于人臉識別,孫劍認為正臉光照好的情況下,計算機已經(jīng)超越人類,現(xiàn)在的問題是解決在極端情況下的用例,包括靜態(tài)和動態(tài),包括光照、角度、化妝、發(fā)型……最終,人臉識別其實是識別人的問題,那么就要做到從背影也能識別出你是誰。這也是人工智能解決小樣本學習、抽象和自適應能力的一個核心問題。

在研究院的各種方向中,孫劍還特別提到了曠視自己原創(chuàng)的深度學習引擎MegBrain,它早于TensorFlow開發(fā),相當于曠視內部的TensorFlow,也是創(chuàng)業(yè)公司中唯一自我研發(fā)并全員使用的深度學習引擎。孫劍說,曠視對于計算引擎的演進非常重視,現(xiàn)在MegBrain已經(jīng)開發(fā)到7.0、8.0的版本?!坝昧薓egBrain,大家都不想再用其他引擎”,而擁有自己的原創(chuàng)引擎,大幅加速了曠視自己的產(chǎn)品創(chuàng)新和競爭力。

現(xiàn)在曠視的研究氛圍很自由,但領域十分聚焦,也即圖像和視頻理解,關注其中的文字、人物、車輛,對應曠視的產(chǎn)品和服務。這比起學術界和大公司研究院來似乎沒有那么自由,但孫劍對此并不擔心,因為“問題足夠大”。

他認為人臉識別這個問題遠遠沒有被解決,而視覺是人工智能里最重要的問題之一,人類有90%的信息都是從視覺進來的。視覺里的問題,“大到把全世界的視覺研究員都聯(lián)合到一起,在我看來都是不夠的?!睂O劍說。

11月8日,在新智元AI World 2017世界人工智能大會上,孫劍將發(fā)表演講,聚焦人臉識別等視覺前沿技術和問題,為我們帶來計算機視覺最新技術和應用的精彩分享。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內容可能涉嫌侵犯其知識產(chǎn)權或存在不實內容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2017-10-26
ResNet成阿爾法元核心技術 曠視孫劍詳解Zero的偉大與局限
2017年10月19日,DeepMind團隊發(fā)表了迄今最強版本的AlphaGo——AlphaGo Zero,其中一個重要模塊是出自華人團隊的深度殘差網(wǎng)絡ResNet。就此背景,新智元采訪了深度殘差網(wǎng)絡ResNet作者之一,曠視科技Face++首席科學家孫劍博士。孫劍認為,AlphaGo Zero技術提升足夠偉大,但在真實技術

長按掃碼 閱讀全文