從1894年倫敦馬糞危機(jī)看人工智能威脅論

1894年,大英帝國(guó)的科學(xué)家們?yōu)橐患虑榻g盡腦汁。彼時(shí)的倫敦是全世界最大的城市,人口密集程度不亞于今天任何一個(gè)大都市,那個(gè)時(shí)候汽車(chē)尚未普及,交通運(yùn)輸全靠馬匹,據(jù)說(shuō)整個(gè)倫敦有數(shù)以萬(wàn)計(jì)的馬,所以站在當(dāng)時(shí)的倫敦街頭,一眼望去除了人就是馬,情形大概就像把今天城市道路上行駛的汽車(chē)全部換成馬那樣壯觀。

讓科學(xué)家們感到頭疼的是,這些馬除了每天要消耗大量的農(nóng)作物之外還會(huì)制造出大量的糞便,這些糞便堆積在城市的不同角落,讓整個(gè)倫敦城都變得臭烘烘的。如果趕上下雨,場(chǎng)面就更加不堪了。按照當(dāng)時(shí)的情形發(fā)展下去,人們作出這樣的預(yù)測(cè):到了1950年,倫敦的每一條街道都會(huì)堆積著九英尺高的馬糞。預(yù)言家們甚至認(rèn)為馬糞將成為全世界城市的夢(mèng)魘,1930年紐約市也將被淹沒(méi)在臭不可聞的糞便中。

所幸預(yù)言沒(méi)有應(yīng)驗(yàn),采用不同動(dòng)力的汽車(chē)在隨后幾十年里逐漸取代了馬匹。1895年世界上第一本汽車(chē)雜志在美國(guó)出版,取名為《無(wú)馬時(shí)代》。有意思的是,在“無(wú)馬時(shí)代”到來(lái)之前,全世界頂尖的科學(xué)家們卻在思考如何解決馬糞的問(wèn)題,聽(tīng)起來(lái)頗有些黑色幽默。

《破譯黑天鵝》一書(shū)的作者曾在書(shū)中回顧了這場(chǎng)發(fā)生在一個(gè)世紀(jì)前的“馬糞危機(jī)”,以此來(lái)試圖說(shuō)明我們正處于一場(chǎng)時(shí)代巨變中,作者認(rèn)為人們總是輕易聚焦在單一的趨勢(shì)、發(fā)展或者某個(gè)偶然事件上進(jìn)行推演,然后貿(mào)然得出一個(gè)錯(cuò)誤的結(jié)論。體現(xiàn)在馬糞危機(jī)中就是太多研究者被眼前的馬糞拴住了思考的韁繩。

對(duì)于人類(lèi)而言,最可悲的事情之一可能是身處某個(gè)時(shí)代巨變中卻對(duì)此渾然不知,有些人感受到了變化,但仍然無(wú)法對(duì)未來(lái)做出準(zhǔn)確預(yù)判。就像大多數(shù)科學(xué)家認(rèn)為以強(qiáng)人工智能的出現(xiàn)為標(biāo)志的“奇點(diǎn)”會(huì)在不久的未來(lái)到來(lái)(目前最為合理的預(yù)測(cè)是2060年),但也只是結(jié)合經(jīng)驗(yàn)和數(shù)據(jù)的合理推演,所謂“奇點(diǎn)”究竟會(huì)不會(huì)到來(lái)?人工智能會(huì)否對(duì)人類(lèi)構(gòu)成威脅?都還是個(gè)未知數(shù)。

包括霍金在內(nèi)的科學(xué)家,以及比爾·蓋茨、埃隆·馬斯克這樣的成功企業(yè)家不止一次地提醒人們警惕人工智能技術(shù)的發(fā)展,認(rèn)為當(dāng)強(qiáng)人工智能出現(xiàn)之后就會(huì)對(duì)人類(lèi)生存構(gòu)成威脅。雖然以目前人工智能的水平來(lái)說(shuō)還不足以對(duì)人類(lèi)造成任何威脅,但如果按照當(dāng)前人工智能的發(fā)展速度,這種擔(dān)憂并不是多余的。不過(guò),就像當(dāng)年倫敦人對(duì)馬糞的擔(dān)憂一樣,我認(rèn)為人們把太多的目光放在了人工智能本身上,強(qiáng)人工智能的到來(lái)簡(jiǎn)直成了人類(lèi)不得不面對(duì)的末日危機(jī)。

然而事實(shí)卻是,當(dāng)前人工智能的水平還處在十分基礎(chǔ)的階段,在所謂強(qiáng)人工智能到來(lái)之前人類(lèi)或許能夠找到應(yīng)對(duì)方法,這種方法可能并不在于通過(guò)對(duì)人工智能技術(shù)本身加以限制,而是以其他新技術(shù)的發(fā)展讓對(duì)人工智能的擔(dān)憂成為多余。

在汽車(chē)普及之前我們當(dāng)然不會(huì)想到應(yīng)對(duì)馬糞危機(jī)的辦法,但卻不應(yīng)該被馬糞遮蔽雙眼忽視了汽車(chē)這一新技術(shù)的出現(xiàn)。相比人工智能技術(shù),納米技術(shù)、生物技術(shù)等更為常人所難以理解的技術(shù)也在以驚人的速度發(fā)展,不過(guò)很顯然這些技術(shù)似乎被我們選擇性忽視了。在這些領(lǐng)域,一些研究人員則顯得更加激進(jìn),他們中的許多人認(rèn)為不出20年,人類(lèi)就能夠?qū)蜻M(jìn)行重新編程,納米機(jī)器人將替代細(xì)胞成為構(gòu)成生命的基本單元。

試想,如何才能夠打消人類(lèi)對(duì)人工智能技術(shù)的擔(dān)憂?結(jié)果恐怕是人類(lèi)本身首先成為比強(qiáng)人工智能更加強(qiáng)大的物種。我們不妨做個(gè)大膽的預(yù)言:假如所謂奇點(diǎn)確會(huì)到來(lái),在到來(lái)之前人類(lèi)將通過(guò)生物技術(shù)和納米技術(shù)首先具備控制強(qiáng)人工智能的能力。

本文作者郝小亮,最極客創(chuàng)辦人,TMT領(lǐng)域觀察家評(píng)論人,《商界評(píng)論》《計(jì)算機(jī)應(yīng)用文摘》特約評(píng)論員。20余家網(wǎng)絡(luò)媒體專(zhuān)欄作者。您可以掃描下方二維碼關(guān)注我的微信公眾號(hào)。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2015-11-20
從1894年倫敦馬糞危機(jī)看人工智能威脅論
1894年,大英帝國(guó)的科學(xué)家們?yōu)橐患虑榻g盡腦汁。彼時(shí)的倫敦是全世界最大的城市,人口密集程度不亞于今天任何一個(gè)大都市,那個(gè)時(shí)候汽車(chē)尚未

長(zhǎng)按掃碼 閱讀全文