文|華爾街見聞
3月13日訊,人工智能(AI)技術(shù)一直是著名物理學(xué)家史蒂芬·霍金(Stephen Hawking)關(guān)注的重點。繼2015年9月拋出“人工智能威脅論”之后,近日霍金再次表達(dá)了他對人工智能技術(shù)的擔(dān)憂。
本月8日,霍金向英國《獨立報》表示,人類必須建立有效機制盡早識別威脅所在,防止新科技(人工智能)對人類帶來的威脅進(jìn)一步上升。
霍金表示:自從人類文明形成以來,來自生存能力優(yōu)勢群體的侵略就一直存在,而未來新科技(人工智能)進(jìn)一步發(fā)展便可能具備這種優(yōu)勢,它們可能會通過核戰(zhàn)爭或生物戰(zhàn)爭摧毀我們。因此人類需要利用邏輯和理性去控制未來可能出現(xiàn)的威脅。
霍金還就如何應(yīng)對人工智能的威脅給出了自己的建議。霍金認(rèn)為,人類可以組成某種形式的“世界政府”來防范人工智能可能帶來的威脅,但他同時認(rèn)為“世界政府”本身也有問題,因為這樣一個政府可能會施行暴政。
實際上,霍金是人工智能技術(shù)的支持者,霍金認(rèn)為,如今AI似乎已經(jīng)滲透到各個領(lǐng)域,包括推動自動汽車進(jìn)步,支持Facebook的廣告篩選功能,并通過蘋果Siri、亞馬遜Alexa等虛擬助理與世界各地的人們互動。AI甚至可幫助根除長期存在的社會挑戰(zhàn),比如疾病和貧困等。
但霍金也一直對AI帶來的潛在挑戰(zhàn)表示擔(dān)憂。2015年9月,霍金在美國網(wǎng)站reddit的AMA(問我任何問題)專欄中談到,他擔(dān)心聰明能干的AI會讓人類滅亡。霍金表示:
一個超級聰明的AI可以非常好地實現(xiàn)它的目標(biāo),如果這些目標(biāo)都沒有與我們?nèi)祟愐恢拢覀內(nèi)祟惥吐闊┝恕?/p>
近年來,隨著人工智能技術(shù)蓬勃發(fā)展,其潛在的威脅受到越來越多科學(xué)家的關(guān)注。
英國牛津大學(xué)教授、人類未來研究所創(chuàng)始人Nick Bostrom表示:
我認(rèn)為改善全球治理很有必要,不僅可應(yīng)對AI帶來的危險挑戰(zhàn),也可解決擺在我們面前的其他巨大挑戰(zhàn)。隨著世界不斷分化,我們在不斷開發(fā)出越來越強大的工具,我不確定人類是否能夠無限期生存下去。
對比霍金等人“人工智能將威脅人類”的觀點,普林斯頓大學(xué)計算機科學(xué)教授Edward Felten更關(guān)注眼下人工智能技術(shù)帶來的影響,他表示:
AI主要有兩個經(jīng)濟(jì)風(fēng)險:第一,工人具備的技能與未來工廠所需要的技能可能不匹配。第二,通過增加資本所有者和某些高級技工的回報,AI可能加劇經(jīng)濟(jì)不平等性。
Edward Felten認(rèn)為,計算機科學(xué)領(lǐng)域還不存在完美基礎(chǔ),可以促使機器智能水平突然加速提高。上述問題可以通過調(diào)整公共政策解決,比如重新分配生產(chǎn)力。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )