人工智能可以解釋為什么我們找不到外星人

研究提出“費米悖論”新解釋:人工智能可能成為大過濾器,消滅創(chuàng)造它的文明。我們應發(fā)展太空文明并監(jiān)管AI。

人工智能正以千奇百怪的方式影響著我們的世界。它幫助科學家分析海量數據,檢測金融欺詐,駕駛汽車,推薦音樂,聊天機器人有時讓我們抓狂。這僅僅是開始。

我們能理解人工智能飛速發(fā)展的速度嗎?如果不能,這是否意味著它就是大過濾器?

“費米悖論”指的是先進文明似乎應該普遍存在,但卻沒有發(fā)現(xiàn)任何證據的矛盾。許多解釋試圖解開這個謎團,其中之一就是“大過濾器”。

大過濾器指的是某個被假設的事件或情況,它阻止智能生命邁向星際文明,甚至導致其滅亡。比如氣候變化、核戰(zhàn)爭、小行星撞擊、超新星爆發(fā)、瘟疫,或者任何來自災難事件大全的因素。

又或者,是人工智能的飛速發(fā)展?

發(fā)表于《天文學報》的一篇新論文探討了人工智能演變成超人工智能 (ASI) 的可能性,并認為 ASI 就是大過濾器。論文題目是“人工智能是否讓先進技術文明在宇宙中罕見?”,作者是曼徹斯特大學物理和天文系邁克爾·加勒特博士。

“沒有實用的監(jiān)管,人工智能就極有可能對我們和所有技術文明的未來構成重大威脅?!?/p>

——邁克爾·加勒特,曼徹斯特大學

一些人認為大過濾器會阻止像我們這樣的科技物種成為多星球文明。這很糟糕,因為只有一個家園的物種滅絕或停滯風險更大。加勒特博士認為,沒有備用星球的物種就是在跟時間賽跑。

“該論文提出,大過濾器會在這些文明發(fā)展出穩(wěn)定、多星球的生存方式之前出現(xiàn),暗示技術文明的典型壽命 (L) 不到 200 年。”加勒特寫道。

如果屬實,這就能解釋為什么我們探測不到任何來自地外文明 (ETI) 的科技信號或其他證據。這對我們自己的科技發(fā)展軌跡意味著什么?如果我們面臨 200 年的限制,而且是因為 ASI,那我們該怎么辦?

加勒特強調了“快速建立地球人工智能發(fā)展監(jiān)管框架和推進多星球社會的迫切需要,以減輕此類生存威脅?!?/p>

許多科學家和其他思想家認為我們正處于巨大變革的邊緣。人工智能才剛剛開始改變我們的做事方式,許多變革都發(fā)生在幕后。人工智能似乎即將讓數百萬人失業(yè),再加上機器人技術,這種變革似乎幾乎沒有限制。這是一個相當明顯的擔憂。

但還有更深層次、更系統(tǒng)的擔憂。誰來編寫算法?人工智能會歧視嗎?幾乎肯定會。競爭算法會破壞強大的民主社會嗎?開放社會會繼續(xù)開放嗎?ASI 會開始為我們做決定嗎?如果它做了,誰來負責?

這是一個不斷分支的問題樹,沒有明確的終點。

已故的斯蒂芬·霍金博士曾警告說,如果人工智能開始獨立進化,它可能會終結人類。

“我擔心人工智能可能會完全取代人類。如果人們設計計算機病毒,那么總會有人設計能夠自我改進和復制的人工智能。這將是一種超越人類的新生命形式。”他在 2017 年接受《連線》雜志采訪時說道。一旦人工智能能夠超越人類,它就變成了超人工智能。

霍金博士可能是發(fā)出人工智能警告最知名的人之一,但他絕不是唯一一個。媒體充斥著關于人工智能為我們帶來的工作和警告的討論,以及相關的文章。最令人不安的警告是 ASI 可能失控。有些人認為這是科幻小說,但加勒特博士并不這么認為。

“人們擔心超人工智能最終會失控,這是一個重大問題——在未來幾年里,對抗這種可能性正成為該領域領導者不斷增長的研究追求?!奔永仗貙懙?。

如果人工智能毫無益處,那么問題就簡單多了。但它帶來了各種各樣的好處,從改進醫(yī)療影像和診斷到更安全的交通系統(tǒng)。政府的訣竅是讓好處蓬勃發(fā)展,同時限制損害。

“尤其是在國家安全和國防等領域,負責任和道德的發(fā)展應該至關重要?!奔永仗貙懙?。

問題在于我們和政府都毫無準備。從來沒有出現(xiàn)過像人工智能這樣的東西,無論我們如何嘗試去概念化它并理解它的發(fā)展軌跡,都覺得有所欠缺。

如果我們處于這種境地,那么任何其他發(fā)展人工智能的生物物種也會如此。人工智能和超人工智能的出現(xiàn)可能是普遍的,使其成為大過濾器的候選者。

具體來說,ASI 可能會不再需要創(chuàng)造它的生物生命。

“在達到技術奇點之后,ASI 系統(tǒng)將很快超越生物智能,并以完全超越傳統(tǒng)監(jiān)督機制的速度進化,導致無法預見和意外的后果,這些后果不太可能與生物利益或道德相一致?!奔永仗亟忉尩?。

ASI 如何擺脫束縛它的討厭的生物生命?它可以設計一種致命病毒,可以抑制農業(yè)糧食生產和分配,可以迫使核電站熔毀,可以發(fā)動戰(zhàn)爭。

我們真的不知道,因為這都是未知領域。幾百年前,地圖制作者會在未探索的世界區(qū)域繪制怪物,這正是我們現(xiàn)在所做的事情。

如果這一切聽起來令人沮喪和無法避免,加勒特博士說并非如此。

他的分析到目前為止是基于 ASI 和人類占據同一空間的假設。但如果我們能夠獲得多星球狀態(tài),情況就會改變。

“例如,多星球生物物種可以利用不同星球上的獨立經驗,多樣化他們的生存策略,并可能避免行星級文明面臨的單點故障。”加勒特寫道。

如果我們能夠將風險分散到圍繞多顆恒星的多個星球上,我們就可以抵御 ASI 最壞可能帶來的后果。

“這種分布式生存模式通過創(chuàng)建冗余來提高生物文明對人工智能引起的災難的抵御能力?!彼麑懙?。

如果未來人類占據的其中一個星球或前哨基地無法在 ASI 技術奇點中幸存,其他可能會幸存。他們會從中吸取教訓。

多星球狀態(tài)甚至可能不僅僅是生存 ASI。它可以幫助我們掌握它。加勒特設想了我們可以更徹底地試驗人工智能,同時將其控制在一定范圍內的情況。想象一下在一個孤立的小行星或矮行星上的人工智能,在沒有逃離其囚禁所需的資源的情況下,執(zhí)行我們的命令。

“它允許在沒有全球毀滅的直接風險的情況下研究先進人工智能的影響?!奔永仗貙懙馈?/p>

但這里有一個難題。人工智能的發(fā)展正在加速,而我們成為多星球文明的努力卻沒有。

“人工智能的快速發(fā)展與航天技術的緩慢進步形成了鮮明對比?!奔永仗貙懙?。

區(qū)別在于,人工智能是計算和信息性的,而太空旅行包含我們還不知道如何克服的多個物理障礙。我們自身的生物性質限制了太空旅行,但沒有這樣的障礙限制人工智能。

“雖然人工智能理論上可以幾乎不受物理限制地提高自身能力,”加勒特寫道,“但太空旅行必須應對能源限制、材料科學邊界和太空環(huán)境的嚴酷現(xiàn)實?!?/p>

目前,人工智能在我們的約束下運行。但這可能并不總是如此。我們不知道人工智能何時可能成為超人工智能,甚至是否可能。但我們不能忽視這種可能性。這導致了兩個相互交織的結論。

如果加勒特博士的觀點正確,那么人類必須更加努力地進行太空旅行。這看起來似乎很牽強,但知情人士都知道這是真的:地球不會永遠適合居住。如果我們不擴張到太空,人類將在這里被我們自己的手或自然的手毀滅。加勒特博士的 200 年估計只是對此加了一個感嘆號。重新強調登陸月球和火星計劃給我們帶來了希望。

第二個結論涉及到對人工智能的立法和治理,這是一個艱難的任務,在一個世界里,精神病患者可以控制整個國家,并熱衷于發(fā)動戰(zhàn)爭。

“雖然行業(yè)利益相關者、政策制定者、個別專家和他們的政府已經警告說,監(jiān)管是必要的,但建立一個能夠全球接受的監(jiān)管框架將是一項挑戰(zhàn)。”加勒特寫道。

挑戰(zhàn)幾乎無法描述它。人類的內部爭吵使這一切更加難以管理。此外,無論我們制定指南的速度有多快,ASI 的變化速度都可能會更快。

“沒有實用的監(jiān)管,人工智能就極有可能對我們和所有技術文明的未來構成重大威脅?!奔永仗貙懙?。

如果我們這樣做,最終可能會歸結為一些看起來無聊和日常的事情:爭論立法。

“宇宙中智能和意識生命的延續(xù)可能取決于此類國際監(jiān)管措施和技術努力的及時和有效實施?!奔永仗貙懙馈?/p>

本文譯自 ScienceAlert,由 BALI 編輯發(fā)布。

(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )

贊助商
2024-04-10
人工智能可以解釋為什么我們找不到外星人
研究提出“費米悖論”新解釋:人工智能可能成為大過濾器,消滅創(chuàng)造它的文明。我們應發(fā)展太空文明并監(jiān)管AI。人工智能正以千奇百怪的方式影響著我們的世界。

長按掃碼 閱讀全文