人工智能能耗問題存挑戰(zhàn) 高通如何巧妙應對?

當下,人工智能已經深入到經濟和產業(yè)的每個細分領域,很多產品也已經具備了人工智能的能力,這是積極的一面。但同時,也給我們帶來一些嚴峻的問題和挑戰(zhàn)。隨著人工智能的發(fā)展,能源消耗的越來越嚴重,有數(shù)據(jù)預測到2025年,全球的數(shù)據(jù)中心將消耗全球所有可用電力的20%。

此外,深度神經網絡的能耗與其規(guī)模大小也成正比。資料顯示,到2025年,神經網絡的繼續(xù)發(fā)展有望將其規(guī)模擴大至100萬億個參數(shù),相當于人類大腦的容量,這樣規(guī)模的神經網絡將消耗大量能源。人類大腦的能效比當前最優(yōu)秀硬件的能效要高100倍,因此我們應該從大腦得到啟發(fā),發(fā)展能效更高的人工智能技術。

人工智能的能耗問題具備兩大挑戰(zhàn)

在Qualcomm技術副總裁韋靈思看來,人工智能的能耗問題存在兩個重要的挑戰(zhàn)。第一,人工智能創(chuàng)造的經濟價值和效益必須超過運行這個服務的成本,否則人們將無法盈利,人們開發(fā)的這些卓越的人工智能技術也就無所用處。不管是社交網絡上按用戶喜好排序,或者是個性化的廣告和推薦,它的應用成本都需要控制在一定范圍內。此外,人工智能還被應用到大型的智慧城市和智慧工廠中,同樣需要控制成本。

blob.png

Qualcomm技術副總裁韋靈思

第二,人工智能能效問題也是一大挑戰(zhàn),是因為在邊緣側也就是移動環(huán)境中,還存在散熱的限制。比如說,我們不能在手機里運行能耗過高的任務,否則手機就會變得非常熱。但同時,我們需要處理大量的人工智能工作負載,包括完成非常密集的計算分析任務、處理復雜的并發(fā)性即在一段時間內同時完成多項任務,還需要保證實時和始終開啟,移動環(huán)境又有多種多樣的限制條件,比如說終端的尺寸很小,又需要保證長久續(xù)航以支持全天使用。此外,受尺寸影響,移動終端的內存和帶寬也都有限制。

“所以說,不管是從經濟效益還是熱效率的角度看,我們都必須要降低人工智能運行的能耗?!?韋靈思總結到:“我認為未來人工智能算法將不會由其所能提供的智能多少來衡量,而是要看這種算法每瓦時所提供的智能多少,這會成為未來人工智能算法的重要衡量指標。在此方面Qualcomm擁有很大的優(yōu)勢,低功耗計算正是我們一直以來所擅長的。”

Qualcomm在終端側讓深度學習更加高效

深度學習是人工智能發(fā)展歷程中的一次重要變革,受神經網絡的大幅發(fā)展所驅動,深度學習顯著提高了預測的準確性。此外,韋靈思表示我們不應該從聲音、信號等大量原始數(shù)據(jù)中人工定義特性,而是應該讓算法從原始數(shù)據(jù)中自行學習提取特性,這是一個巨大的突破。神經網絡的優(yōu)點還包括,它能夠自動探測物體,非常高效地共享參數(shù),使部分數(shù)據(jù)更加高效,并且可以在現(xiàn)代硬件上快速執(zhí)行。

當然,深度學習也有需要改進的方面,在韋靈思看來,最重要的一點是,卷積神經網絡使用了太多的內存、計算能力和能源,這是現(xiàn)在急需改善的。此外,神經網絡不具備旋轉不變性、不能量化不確定性以及它很容易被輸入側輕微的改變所欺騙等。

為應對這些挑戰(zhàn),Qualcomm開展了大量的工作。在降低能耗方面,受人類大腦的啟發(fā),Qualcomm早在超過十年前就已經開始了脈沖神經網絡的研究,這也是實現(xiàn)低功耗計算的一種方法?,F(xiàn)在同樣受人腦的啟發(fā),Qualcomm正考慮利用噪音來實現(xiàn)深度學習方面的低功耗計算。

韋靈思解釋稱:“人腦其實是一個充滿噪聲的系統(tǒng),它知道如何處理噪音。我相信,我們可以更進一步利用噪音來為神經網絡帶來益處。在專業(yè)領域,我們將這種方法稱為貝葉斯深度學習,這也是我們實現(xiàn)這一切的重要基礎性框架。通過貝葉斯深度學習,我們把神經網絡壓縮得更小,使其可以更高效地運行在驍龍平臺上。我們還通過使用這一框架,量化我們需要進行的計算處理的比特位。”

談及這些噪音如何幫助我們進行壓縮和量化時,韋靈思講到,我們將噪聲引入到神經網絡,繼而影響到各個參數(shù)和連接,然后這些擾動的參數(shù)將噪聲傳播到激活節(jié)點,也就是各個神經元。如果這些神經元充滿了噪音、不存儲任何信息、或對預測不能發(fā)揮任何作用,我們就對其進行裁剪。通過裁剪神經元,神經網絡會變得更小,從而在計算機和驍龍平臺上也將會運行得更快。

剛剛談到了使用貝葉斯框架進行壓縮與量化,事實上它還可以解決許多其他問題。如果神經網絡只進行過面向某一場景的訓練,例如一臺自動駕駛汽車只接受過某一城市的相關訓練,現(xiàn)在這臺汽車來到另一個新的城市,你可以使用貝葉斯深度學習進行泛化。Qualcomm的思路是,能夠對數(shù)據(jù)做出解釋的最小、最簡單的模型即為最適合的模型,這就是奧卡姆剃刀。貝葉斯學習還可以幫助我們產生置信估計,即量化神經網絡的不確定性。當我們加入噪聲,噪聲將傳播至預測,從而產生預測的分布區(qū)間,由此完成對預測置信度的量化。最后,貝葉斯學習可以幫助我們不易遭受對抗攻擊,即通過輸入側的輕微改變來得到不同的預測結果。它也有助于保護用戶的個人隱私,因為數(shù)據(jù)信息可以轉換為模型參數(shù)甚至可以進行重構,使得數(shù)據(jù)具有隱私敏感度。所以說通過加入噪聲,可以很好地幫助我們保護隱私。總體而言,貝葉斯深度學習可以很好地解決深度神經網絡所面臨的諸多挑戰(zhàn)。

“隨著壓縮比越來越大,貝葉斯深度學習相比于其他方法的性能優(yōu)勢就越明顯,其在移動平臺上的運行也更為高效,這就是為什么我們認為貝葉斯深度學習尤其適合移動場景?!?韋靈思進一步講到。

此外,據(jù)介紹,目前Qualcomm異構計算系統(tǒng)中包括了三個組件,分別是CPU、GPU和DSP。超過十年來,在每一個產品研發(fā)周期內,Qualcomm都從多個維度持續(xù)提升這三大組件。舉例來說,在緩存結構(caching structure)上,Qualcomm不斷優(yōu)化內存工作方式;持續(xù)優(yōu)化精確性,通過最低的能耗實現(xiàn)對精確度優(yōu)化;優(yōu)化計算管理,比如說當有一個計算任務,可以選擇讓GPU、CPU或是DSP完成,或者讓所有組件共同完成。雖然目前只對單一終端上的計算進行管理,但Qualcomm有更遠大的愿景,在即將到來的5G時代,Qualcomm將在萬物互聯(lián)的環(huán)境下,將計算放在由終端及云端組成的整個網絡中運行,為網絡邊緣帶來強大的人工智能系統(tǒng)?!?/p>

Qualcomm三層努力加速人工智能研究

在加速人工智能研究方面,Qualcomm也做了很大的努力,包括對計算架構、內存層級及使用層面的優(yōu)化和提升。在計算架構方面,Qualcomm專注于優(yōu)化指令類型和并行性,以及優(yōu)化運行計算所需的精確度,貝葉斯深度學習可以幫助實現(xiàn)最佳的運行精確度。同樣重要甚至更為重要的是內存層級。據(jù)估計,從DRAM遷移數(shù)據(jù)或將數(shù)據(jù)遷移至DRAM的功耗,是ALU運算(ALU Operation)功耗的200倍,因此,需要優(yōu)化內存層級以降低數(shù)據(jù)移動的功耗。在使用層面,Qualcomm致力于優(yōu)化硬件、軟件和編譯器,從而減少計算的冗余并最大化計算吞吐量和內存帶寬。

韋靈思補充道:“由硬件、軟件和算法構成的生態(tài)系統(tǒng)對我們來說至關重要。高效的硬件將不斷演進,以適應在人工智能領域出現(xiàn)的全新算法?!?/p>

他進一步講到:“我們關注如何在硬件上更高效地運行卷積神經網絡,以及為高效運行神經網絡而開發(fā)更高效的新硬件。在算法方面,確保算法在驍龍平臺上的高效運行。這一切都需要通過軟件工具來實現(xiàn),也就是我們的驍龍神經處理SDK。大家可以將軟件看成是連接硬件和算法之間的橋梁。比如說,你在驍龍平臺上構建你最喜歡的模型,或進行你最喜歡的人工智能測試,當你將模型放到神經處理SDK中,這些可用的軟件工具將幫助你進行壓縮和量化,從而確保你的模型或測試在驍龍平臺上高效運行?!?/p>

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2018-05-31
人工智能能耗問題存挑戰(zhàn) 高通如何巧妙應對?
當下,人工智能已經深入到經濟和產業(yè)的每個細分領域,很多產品也已經具備了人工智能的能力,這是積極的一面。但同時,也給我們帶來一些嚴峻的問題和挑戰(zhàn)。

長按掃碼 閱讀全文