我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

有一天,人工智能機(jī)器人將取代人類(lèi),成為地球上的主導(dǎo)生命形式,史蒂芬·霍金(以及伊隆·馬斯克)如是說(shuō)。然而,盡管近年來(lái)人工智能和機(jī)器人領(lǐng)域取得了令人矚目的進(jìn)步,但同樣也給社會(huì)帶來(lái)了最緊迫、最真實(shí)的危險(xiǎn)。

具體來(lái)說(shuō),威脅不在于人工智能是否會(huì)超越他們現(xiàn)在所服務(wù)的目標(biāo)(如管理對(duì)沖基金或招募新員工),也不在于它們是否會(huì)反抗主人。而在于,人工智能在替主人行事時(shí),是多么的高效。

事實(shí)上,由于機(jī)器人和人工智能還沒(méi)有展現(xiàn)出絲毫自主性或獨(dú)立性,霍金口中“新形式的生命”顯然對(duì)它們而言并不恰當(dāng)。相反,它們的存在只是一種擴(kuò)展形式,擴(kuò)展的是制造和使用它們的群體。它們是一種復(fù)雜的工具,它們幫助組織執(zhí)行某些活動(dòng)。

正因?yàn)樗鼈兪瞧溥\(yùn)作者的延伸,對(duì)社會(huì)而言才成為了潛在威脅。機(jī)器人是由特定人群設(shè)計(jì)和使用,而這些人有著特定的價(jià)值觀和利益。這意味著,它們的行動(dòng)不可避免地會(huì)反映和推進(jìn)這些價(jià)值觀和利益,而這些價(jià)值和利益并非符合所有群體和個(gè)人。它們具有卓越的效率和生產(chǎn)率,這意味著,它們將給擁有足夠資源的人帶來(lái)獨(dú)特的優(yōu)勢(shì),使其能夠以自己的想法塑造世界,而犧牲那些普通人的利益。

人工智能和人類(lèi)學(xué)會(huì)了偏見(jiàn)

要了解人工智能如何增加社會(huì)、經(jīng)濟(jì)和政治的不平等,你只需看看最近的例子,這些例子表明,人工智能和機(jī)器學(xué)習(xí)算法已經(jīng)顯示出了偏見(jiàn)。

例如,2016年5月,ProPublica的一項(xiàng)研究顯示,在美國(guó)多個(gè)州使用的累犯評(píng)估算法對(duì)非裔美國(guó)人存在偏見(jiàn),不其標(biāo)記為“更高危人群”的比例為44.9%,而白人的這一比例為23.5%。

我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者

又如,2017年4月在《科學(xué)》雜志上發(fā)表的一篇研究論文發(fā)現(xiàn),在互聯(lián)網(wǎng)上學(xué)習(xí)大量的詞匯聯(lián)想時(shí),機(jī)器學(xué)習(xí)工具獲得了關(guān)于女性和非裔美國(guó)人的“類(lèi)似人的語(yǔ)義偏見(jiàn)”(也就是刻板印象)。

之所以出現(xiàn)這樣的偏見(jiàn),是因?yàn)槿斯ぶ悄芎蜋C(jī)器人從它們所接收的數(shù)據(jù)和參數(shù)中學(xué)習(xí)。更常見(jiàn)的情況是,這些數(shù)據(jù)和參數(shù)來(lái)自于那些設(shè)計(jì)和使用它們的人:即社會(huì)等級(jí)較高,享有特權(quán)的白人男性。

正因?yàn)槿绱?,人工智能面部識(shí)別軟件難以識(shí)別有色人種的臉。也因?yàn)槿绱?,人工智能和機(jī)器人能夠更好地促進(jìn)其制造者和所有者的利益,而不是其他人的利益。

更重要的是,到2027年,他們的工作效率會(huì)更卓越,會(huì)滲透到大約2470萬(wàn)個(gè)工作崗位,這意味著,他們將在大部分生活和工作領(lǐng)域打下其制造者的烙印。它們會(huì)讓數(shù)以百萬(wàn)計(jì)的工薪階層失業(yè),它們將會(huì)給有能力采用它們的組織巨大的商業(yè)競(jìng)爭(zhēng)優(yōu)勢(shì)。因此,若一些國(guó)家和階層能夠制造并擁有它們,這些國(guó)家和群體將會(huì)增強(qiáng)更大的全球影響力。

人工智能只能為少數(shù)人代言

基于上述原因,目前越來(lái)越多向機(jī)器人賦權(quán)(甚至是賦予公民身份)的討論令人不安。機(jī)器人和人工智能受其主人產(chǎn)權(quán)的保護(hù),是不能被隨意破壞的。

因此,很明顯,賦予他們“權(quán)利”并不意味著給予他們免受破壞的消極權(quán)利(因?yàn)樗麄円呀?jīng)有了這樣的權(quán)利),但必須等于給予他們積極權(quán)利,使其追求自己的目標(biāo)(例如,政治反對(duì)),而不受來(lái)自其他方面(例如,那些不支持機(jī)器人的人)的干擾。

換句話說(shuō),這種賦權(quán)實(shí)際上等同于授權(quán)人工智能的所有者,讓他們的目標(biāo)、目的、價(jià)值觀受到特殊的保護(hù),這些所有者可以利用人工智能和機(jī)器人來(lái)達(dá)到自身目的。

最后,提到價(jià)值觀,我們就觸及了另一個(gè)不確定的主題,這個(gè)主題經(jīng)常會(huì)在人工智能的討論中出現(xiàn)。無(wú)論是歐洲議會(huì)還是研究機(jī)構(gòu),人們經(jīng)常說(shuō),我們需要確保智能機(jī)器人可以學(xué)習(xí)和維護(hù)人類(lèi)的價(jià)值觀。然而,問(wèn)題是:到底機(jī)器人會(huì)傳授和支持誰(shuí)的價(jià)值觀,而誰(shuí)又會(huì)為全人類(lèi)說(shuō)話呢?

不管一套真正的普世價(jià)值觀能否被灌輸?shù)饺斯ぶ悄苤?,這樣的討論只是表明,機(jī)器人的行為方式會(huì)產(chǎn)生道德、社會(huì)和經(jīng)濟(jì)影響,它們只得淪為某些價(jià)值觀的載體。

而令人擔(dān)憂的是,他們將在很大程度上由一群特定的企業(yè)和實(shí)業(yè)家制造和控制。在此情況下,他們的高效性極有可能會(huì)助力于這類(lèi)人的價(jià)值觀和利益的實(shí)現(xiàn)——不管是好是壞。

極客網(wǎng)企業(yè)會(huì)員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書(shū)面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。

2017-11-10
我們要擔(dān)心的不是機(jī)器人殺手 而是他們的創(chuàng)造者
有一天,人工智能機(jī)器人將取代人類(lèi),成為地球上的主導(dǎo)生命形式,史蒂芬·霍金(以及伊隆·馬斯克)如是說(shuō)。然而,盡管近年來(lái)人工智能和機(jī)器人領(lǐng)域取得了令人矚目的進(jìn)步,但

長(zhǎng)按掃碼 閱讀全文