一份新的報告試圖具體衡量人工智能混亂的進展。
人工智能到底有多聰明?進展有多快?
這些問題讓政治家、經(jīng)濟學家和人工智能研究人員夜不能寐。
回答這些問題是至關(guān)重要的——不僅是為了提高公眾的理解,而且是為了幫助社會和政府在未來幾年里找出應(yīng)對這種技術(shù)的方法。
麻省理工學院(MIT)、斯坦福大學、OpenAI和其他機構(gòu)的專家們提出了一份新的報告,旨在為這些問題提出一些清晰的思路。
“人工智能指數(shù)”(AI Index)首先告訴我們的事實就是:我們對人工智能的能力的估計基本上是“盲目的”。
接著它提出了兩點:第一,人工智能領(lǐng)域比以往任何時候都更加活躍,人才和金錢都在以驚人的速度涌入這個領(lǐng)域;
其次,盡管人工智能在執(zhí)行一些非常具體的任務(wù)時已經(jīng)超越了人類,但它在一般智力方面仍然極其有限。
正如幫助編寫報告的SRI國際研究員Raymond Perrault所說:“公眾認為我們所知道的、所能做的事情比真實情況多得多?!?/p>
為了得出這些結(jié)論,人工智能指數(shù)研究了一系列的人工智能領(lǐng)域中的成果,包括“活動量”和“技術(shù)性”。
這位統(tǒng)計人員調(diào)查了在這個領(lǐng)域發(fā)生了多少事情,從會議、招生、風險投資和創(chuàng)業(yè)等方面。
簡而言之,每個方面都已經(jīng)發(fā)生了很多事。在圖表中,這以斜向上方的曲線表示。
圖:一些關(guān)于人工智能指數(shù)的圖表顯示了該領(lǐng)域內(nèi)的各種各樣的活動。
無論是關(guān)于AI的論文、招生、初創(chuàng)企業(yè)數(shù)量還是風險投資都在斷崖式地上升。
另一個因素是“技術(shù)性”,它試圖衡量人工智能在特定任務(wù)上超越人類的能力,比如識別圖像中的物體和解析語音。
有些領(lǐng)域內(nèi)人工智能的表現(xiàn)很微妙,已經(jīng)可以達到和人類同樣的水平,甚至比人類更為出色。
其中包括在圖像中識別出普通對象(在測試數(shù)據(jù)庫ImageNet中,人類有5%的錯誤率,而機器的錯誤率只有3%),在解析語音方面,2017年,一些人工智能系統(tǒng)的音頻識別錯誤率能達到與人類相同的水平。
在許多游戲方面,人工智能也已完勝人類,比如《危險邊緣》(Jeopardy),《吃豆人》(pac-man)之類的雅達利(Atari)游戲,而其中最著名的是圍棋和德州撲克。
人工智能盡管出色,但能力范圍還很窄
但正如報告所言,這些指標只提供了關(guān)于人工智能的狹隘視角。
在某些例子中,清晰的視頻游戲世界能更容易地訓練人工智能,而且定義良好的評分系統(tǒng)也能幫助科學家評估和比較不同的訓練方法。
但這些條件也限制了我們能做出評估的范圍。
在游戲中,人工智能已經(jīng)能完美完成這些任務(wù),電腦總是能看到正在發(fā)生的一切——科學家們將這稱之為“完美信息”。
但對于其它一些任務(wù)來說,比如管理一座城市的交通系統(tǒng),就不能認為AI能達到相同水平了,盡管研究人員已經(jīng)開始著手引入能更好地適用于這些挑戰(zhàn)的視頻游戲,比如Dota。
解析語音之類的任務(wù)也類似于此。
在記錄對話時,人工智能可能與人類一樣準確,但它無法辨別出諷刺、笑話或理解上百萬種其他文化背景,即使是最隨意的談話,理解其文化背景也是至關(guān)重要的。
關(guān)于人工智能指數(shù)的報告也指出了這一點,并補充說,更大的問題是我們甚至沒有一個好方法來衡量人工智能對于這種常識的理解。不像某些人所聲稱的那樣,實際上并沒有針對電腦的IQ測試。
這是否意味著我們不必那么擔心人工智能對社會的沖擊?答案是,還不行。
盡管我們最先進的人工智能系統(tǒng)的智力還比不上老鼠(Facebook的人工智能的負責人Yann LeCun如此說道),但這并不意味著人工智能不會對我們的生活產(chǎn)生巨大的影響——尤其是在工作中。
麥肯錫之前發(fā)表的一份研究報告稱,未來12年,全球多達8億份工作可能面臨自動化的威脅。
但是,該研究的作者明確指出,只有6%的死記硬背和重復的工作有被完全自動化的危險。對于其余類型的工作,人工智能只會參與到其中一部分來。
這些才是人工智能將真正產(chǎn)生影響的地方,但還沒有人能具體說出這些影響將會是怎樣的。
如果一個人的工作中的三分之一能由電腦來完成,那接下來會發(fā)生什么?是接受新的培訓,還是減薪,甚至被炒魷魚?
這些問題是非常難以回答的,反映了人類對人工智能所造成的威脅的恐慌。
也許目前人們還不需要擔心超級人工智能在短時間內(nèi)出現(xiàn),但人們確實需要思考,例如,當今在醫(yī)療、教育和刑事司法中使用的機器學習算法是如何做出有偏見的判斷的。
麥肯錫報告和人工智能指數(shù)報告所得出的結(jié)論是,人類應(yīng)當與時俱進,在人工智能變得越來越聰明的同時,人類卻不能放任自己變得越來越傻。
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )