霍金亮相中國:警惕人工智能威脅

鳳凰科技訊(作者/花子健)4月27日消息,GMIC北京2017在北京召開,來自英國的著名科學(xué)家斯蒂芬·霍金教授通過視頻發(fā)表演講,談了他關(guān)于人工智能的看法,他認(rèn)為人工智能在未來是否會威脅到人類還不好說,現(xiàn)在我們就該從研究中規(guī)避這種風(fēng)險。

霍金認(rèn)為,人工智能的崛起是人類歷史上最好的事情,也有可能是最糟糕的,但它是最好的還是最壞的,現(xiàn)在還不能確定。

霍金

人工智能的出現(xiàn)是一種必然的趨勢。從實驗室研究到實現(xiàn)人工智能的經(jīng)濟(jì)效益,有很長的路,哪怕很小的提升,也可以實現(xiàn)巨大的效益。我們現(xiàn)在的工作應(yīng)該從提升人工智能的能力轉(zhuǎn)化為提升人工智能的社會效益。

我們現(xiàn)在對于人工智能的研究是從各個分支入手,比如語音識別,圖像分類,自動駕駛,機(jī)器翻譯,步態(tài)運(yùn)動等,推動人工智能的快速發(fā)展。但是就長遠(yuǎn)來說,人腦和計算機(jī)能實現(xiàn)的事情,是沒有本質(zhì)區(qū)別的。

現(xiàn)在更需要關(guān)注的是,包括人工智能的研究人員也在擔(dān)心和探索人工智能的倫理問題。拿機(jī)器人來說,我們需要在未來確保機(jī)器人一直都會為人類工作。未來可能機(jī)器人會需要人格化的身份,就像今天的獨(dú)立法人,為了確保人類可以控制機(jī)器人,研究和設(shè)計人員都應(yīng)該確保每個機(jī)器人都有終止開關(guān)。

人工智能可以解決世界上的大部分問題,包括人類的疾病、社會的問題等,AI有這個潛力。如果對于AI的部署得當(dāng),那將會挖掘無限的潛力,如果部署不當(dāng),可以威脅人類的生存。人工智能一旦脫離控制,人類受到進(jìn)化的限制,將無法與之競爭。跟據(jù)霍金的預(yù)測,在未來一段時間內(nèi),AI將迅速地消滅數(shù)百萬的工作崗位。

更長遠(yuǎn)的擔(dān)憂就是人工智能系統(tǒng)失控的風(fēng)險以及超級智能的崛起。人工智能贏得圍棋就是這種未來的趨勢,人工智能未來的潛力在于,我們現(xiàn)在取得的成就和未來幾十年的相比,簡直是相形見絀,未來人工智能甚至有可能終結(jié)人類文明。

我們?nèi)绾稳パ芯咳斯ぶ悄埽墙鉀Q和理解這個問題的關(guān)鍵。我們需要在研究過程中就規(guī)避這種風(fēng)險?;艚鸨硎荆?jīng)和埃隆·馬斯克有過一次談話,并且聯(lián)合科學(xué)家們簽署一份關(guān)于人工智能的協(xié)議,發(fā)表了一封公開信——《為穩(wěn)定人工智能并從中獲益的公開信》。他還在倫敦建立了一個新的研究中心——利弗姆休研究中心?;艚疬€呼吁,我們需要確保下一代繼續(xù)參與科學(xué)研究,以繼續(xù)發(fā)揮科學(xué)的潛力

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2017-04-27
霍金亮相中國:警惕人工智能威脅
GMIC北京2017在北京召開,來自英國的著名科學(xué)家斯蒂芬·霍金教授通過視頻發(fā)表演講,談了他關(guān)于人工智能的看法,他認(rèn)為人工智能在未來是否會威脅到人類還不好說,現(xiàn)

長按掃碼 閱讀全文