據(jù)國外媒體報道,著名理論物理學家史蒂芬·霍金(Stephen Hawking)無疑是當代社會最偉大的人物之一,所以當他分享他對世界的一些想法時,很多人都會認真傾聽。最近,他一直在談論一個主題:人類的未來。
最近,霍金對從地外生命到人工智能(AI)等一些熱門話題表達了自己的觀點。對于后者,他表示出非常擔憂。他并不反對開發(fā)人工智能技術(shù),事實上,他曾經(jīng)說過人工智能可能是我們文明歷史上最重大的事件。但是像今天世界上其他許多科學家和思想家一樣,霍金擔心人工智能的崛起可能帶來各種負面的副作用。
他已就人工智能對中產(chǎn)階級工作崗位的影響向我們發(fā)出警告,并與特斯拉CEO埃隆·馬斯克(Elon Musk)一起,呼吁禁止開發(fā)用于軍事用途的人工智能機器人。他也擔心人工智能可能會接管世界,或者更糟糕的是,它會終止這個世界?,F(xiàn)在,他在接受英國《泰晤士報》采訪時表示,防御人工智能崛起的最好方式,是組建可以控制這種技術(shù)的“某種形式的世界政府”.
霍金接著解釋了他建立這樣一家國際管理機構(gòu)的理由:
自人類文明開始以來,人類的積極進取是有益的,因為它具有明確的生存優(yōu)勢。它是在達爾文進化過程中滲透到我們?nèi)祟惢虻?。然而,現(xiàn)在技術(shù)的發(fā)展速度,使這種積極進取可能以核戰(zhàn)爭或生物戰(zhàn)爭的方式摧毀我們?nèi)祟悺N覀冃枰眠壿嫼屠硇詠砜刂七@種繼承下來的本能。
為了跟上人工智能的發(fā)展,我們必須學會適應?;艚鹪?014年年底表示:“人工智能的發(fā)展可能會導致人類的終結(jié)。它將自己發(fā)展自己,并以不斷增長的速度重新設計自己。人類則受到緩慢的生物進化限制,將無法與它競爭,并最終將被它取代?!?/p>
他認為這些人工智能機器人拋棄我們,不會是出于任何情感的原因:“人工智能的真正風險不是它有惡意,而是它的能力。一個有超常智慧的人工智能能將非常善于實現(xiàn)目標,如果那些目標與我們的目標不一致,那我們就麻煩了?!?/p>
因此,根據(jù)霍金的看法,某種形式的管理機構(gòu)和快速適應的能力--這是即將到來的人工智能或超級智能時代我們生存的法寶。
幸運的是,這樣的機構(gòu)已經(jīng)出現(xiàn)。這些機構(gòu),例如“人工智能伙伴關(guān)系”(Partnership on AI)和人工智能倫理與治理基金(Ethics and Governance of Artificial Intelligence Fund),已經(jīng)開始制定有關(guān)指導方針或框架,以讓人們更負責任地開發(fā)人工智能技術(shù)。國際電子電氣工程協(xié)會(IEEE)還發(fā)布了世界首個有關(guān)人工智能道德準則的“指南”.
盡管未來的一切難以預料,霍金對未來仍然感到樂觀:“這一切聽起來有點像厄運來臨,但我仍是一個樂觀主義者。我認為人類會奮起迎接這些挑戰(zhàn)。”
(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )