阿西莫夫著名的機(jī)器人三定律,對機(jī)器人和自動機(jī)器人設(shè)下行為準(zhǔn)則以確保人類的安全,也是一個著名的虛構(gòu)學(xué)說。這部法則首次出現(xiàn)在他1942年的短篇小說《跑位》中,并且也出現(xiàn)在《我,機(jī)器人》等經(jīng)典作品中,在剛開始出現(xiàn)的時候看起來很不錯:
1、機(jī)器人不得傷害人類,或因不作為而使人類受到傷害。
2、除非違背第一法則,機(jī)器人必須遵守人類的命令。
3、在不違背第一及第二法則下,機(jī)器人必須保護(hù)自己。
當(dāng)然,應(yīng)用在現(xiàn)實(shí)中的隱藏的沖突和漏洞比比皆是,在我們這個擁有著先進(jìn)的機(jī)器學(xué)習(xí)軟件和自動化機(jī)器人時代,定義和實(shí)施人工智能的一套完整可行的道德規(guī)范已經(jīng)成為像機(jī)器智能研究所和OpenAI所重點(diǎn)考慮的問題。
Christoph Salge是紐約大學(xué)的一名計(jì)算機(jī)科學(xué)家,他采取了一種不同的方法。Salge和他的同事Daniel Polani并沒有用自上而下的哲學(xué)理論來定義人工智能的行為,而是在研究一種自下而上的道路,或者是"機(jī)器人應(yīng)該首先做什么"。正如他們在最近的論文中所寫的那樣,"給予權(quán)利是機(jī)器人三定律的替代品。""授權(quán)"這個概念在一定程度上受到了控制論和心理學(xué)的啟發(fā),它描述了一個代理人的內(nèi)在動機(jī),即堅(jiān)持并在其周圍環(huán)境中工作。"就像有機(jī)體一樣,它想要生存下去。它想去影響世界,"Salge解釋道。在電池電量過低的情況下,Roomba會在它快沒電時自動尋找充電站,這可能是一種非?;镜氖跈?quán)方式:它必須采取行動讓自己沒電不能續(xù)航時通過充電來維持自身的生存。
授權(quán)聽起來像是一個導(dǎo)致像Nick Bostrom這樣的安全智能思想家擔(dān)心的結(jié)果:強(qiáng)大的自治系統(tǒng)只關(guān)心如何讓自己的利益最大化并做出一些瘋狂的行為。但是,研究人類機(jī)器社交互動的Salge想知道,如果一個被授權(quán)的人工智能"也觀察到到另一個被授權(quán)的人工智能",結(jié)果會是怎樣。你不僅想讓你的機(jī)器人保持運(yùn)轉(zhuǎn),你還想保持對它能夠與人類友好相處而進(jìn)行控制?!?/p>
Salge和Polani意識到,信息理論提供了一種方法,將這種相互賦權(quán)轉(zhuǎn)化為一種數(shù)學(xué)框架,即可以付諸行動的一個非哲學(xué)化的人工智能。Salge說:"機(jī)器人三定律的一個缺點(diǎn)是,它們是基于語言的,而語言有高度的模糊性。""我們正在努力尋找一種可以實(shí)際操作的東西。"
Quanta與Salge討論了信息理論、虛無主義人工智能和人類與機(jī)器人互動的犬類模型。下面是經(jīng)過精簡編輯的對話。
問:一些技術(shù)專家認(rèn)為,人工智能是一個重大甚至當(dāng)今存在的威脅。失控的人工智能會讓你擔(dān)心嗎?
我對此不抱太好的看法。我的意思是我確實(shí)認(rèn)為現(xiàn)在機(jī)器人和人工智能的影響力越來越大。但我認(rèn)為,我們可能更應(yīng)該關(guān)心的是這些人工智能將影響未來職位的更替、決策的制定,也可能會使民主的喪失,以及隱私的喪失。我不確定這種失控的人工智能有多大可能會讓這些發(fā)生。即使是人工智能可以幫助我們控制醫(yī)療系統(tǒng),或者得到一些治療方案,但我們也應(yīng)該開始關(guān)注由此產(chǎn)生的倫理問題。
問:賦權(quán)將如何幫助我們解決這些問題呢?
我認(rèn)為,賦權(quán)確實(shí)是一種填補(bǔ)漏洞的的想法。它讓一個人工智能幫助人類避免死亡,但一旦你滿足了這個基本的底線,它仍然有一種持續(xù)的動力去創(chuàng)造更多的可能性,讓人類更多地表現(xiàn)自己來對世界產(chǎn)生更大的影響。在Asimov的一本書中,我認(rèn)為機(jī)器人最終將所有人類置于某種安全的容器中。這當(dāng)然是我們所不愿意看到的。然而,讓我們的能力增強(qiáng)并持續(xù)地影響世界似乎是一個更有趣的最終目標(biāo)。
問:你在一個游戲環(huán)境中測試了你的虛擬人工智能。然后發(fā)生什么呢?
一個被自己的力量所激勵的人工智能會跳出炮彈的方向,或者避免落入一個洞中,或者避免任何可能導(dǎo)致其喪失機(jī)動性、死亡或被破壞的情況,從而減少其運(yùn)作性。它只會不停地運(yùn)行。
當(dāng)它與一個人類棋手配對時,它被設(shè)計(jì)成能自我增強(qiáng),我們觀察到虛擬機(jī)器人會保持一定的距離來避免阻礙人類的行動。它不會阻礙你進(jìn)入,它也不會站在你無法通過的門口。我們看到,這種效果基本上人類會讓他的同伴形影不離,這樣同伴才能就能幫到他。它導(dǎo)致了一些可以引領(lǐng)或跟隨的行為。
例如,我們還創(chuàng)造了一個激光屏障的場景,對人類有害,但對機(jī)器人無害。如果這個游戲中的人類離激光更近,突然就會有越來越多的激勵因素驅(qū)使機(jī)器人去阻擋激光。當(dāng)人類站在它旁邊時,它的動機(jī)就會變得更強(qiáng),這意味著"我現(xiàn)在想穿過它"。這個機(jī)器人會擋住激光,站在它前面。
問:這些人工智能是否有出現(xiàn)任何意想不到的行為,就像Asimov小說中出現(xiàn)的三部法律一樣?
我們最初設(shè)計(jì)的行為很好。例如,虛擬機(jī)器人會干掉那些想要?dú)⑺滥愕臄橙?。偶爾,如果這是唯一能拯救你的方法,它可能會跳到你面前為你擋子彈。但在一開始,有一件事讓我們有點(diǎn)吃驚,那就是它也非常害怕你。
這與它的"本地正向"模式有關(guān):基本上,它所判斷的是,未來發(fā)生的兩三個行為對人類或者它本身的世界的影響是怎樣的。因此,作為簡單的第一步,我們編寫了這個模型,假設(shè)玩家會隨機(jī)操作。但在實(shí)際操作中,這意味著機(jī)器人的行為實(shí)際上是基于在假定人是一種精神變態(tài)者的情況下,所以在任何時候,比如說,人類都可以決定向機(jī)器人開火。所以機(jī)器人總是非常小心地待在那些人類無法殺死它的位置上。
我們必須解決這個問題,所以我們建立了一個我們稱之為信任的假設(shè)?;緛碚f,"同伴機(jī)器人"的行為是基于這樣的假設(shè):人類只會選擇那些不會移除代理自身權(quán)力的行為——這可能是一個更自然的伴侶模式。
我們在比賽中注意到的另一件事是,如果你有10個生命值,你的同伴機(jī)器人并不關(guān)心你失去前八、九個生命值,甚至?xí)谝欢螘r間內(nèi)認(rèn)為射殺你只是一種詼諧的行為。在這個實(shí)驗(yàn)中我們再次意識到,我們生活的世界與電腦游戲中的模型之間存在著間隙。一旦我們用基于生命損失來生產(chǎn)出能力限制模型,這個問題就解決了。但它也可以通過設(shè)計(jì)本地正向模型來解決,這讓它能夠預(yù)知未來的一切條件,而不僅僅是幾個步驟。如果這名機(jī)器人能夠深入了解未來,就會發(fā)現(xiàn)擁有更多的生命值可能會對未來有所幫助。
機(jī)器人基本上會說,"哦,我不能開槍打死他,或者我可以開槍打死他這兩者沒有區(qū)別。"有時機(jī)器人甚至?xí)錃⒛恪_@種情況當(dāng)然是個大問題。我不能寬恕隨意開槍的玩家。我們增加了一個補(bǔ)丁,讓虛擬機(jī)器人更關(guān)心你的授權(quán),而不是它自己的。
問:如何讓這些概念變得更精確?
如果你把機(jī)器人看作是控制系統(tǒng),你可以從信息的角度來思考:世界上發(fā)生的任何事情,在某種程度上影響著你。我們不只是在談?wù)撃闼兄降氖挛?,而是任何一種影響——它可能是任何在周圍世界和你之間來回流動的東西??赡苁菧囟扔绊懩?,或者是營養(yǎng)進(jìn)入你的身體。任何滲透到這個邊界的世界和人工智能之間都攜帶著信息。同樣,人工智能也能以多種方式影響外部世界,也能輸出信息。
你可以把這種流動看作是信道容量,這也是信息理論中的一個概念。當(dāng)你獲得高度的授權(quán)能夠采取不同的行動,這將導(dǎo)致不同的結(jié)果。如果這些能力中的任何一個變得更糟,那么你的授權(quán)就會降低——因?yàn)槟芰Φ膯适?yīng)著你和環(huán)境之間的信道容量可量化的減少。這是核心理念。
問:這個人工智能需要賦予多大的權(quán)利去工作?
賦權(quán)有一個優(yōu)勢,即使你的知識還沒有完善,它也可以被應(yīng)用。人工智能的確需要一個模型來說明它的行為將如何影響世界,但它并不需要完全了解這個世界以及它的所有復(fù)雜之處。與一些試圖將世界上的一切都盡可能完美了解的方法相比,你只需要弄清楚你的行為是如何影響你自己的看法的,那么你只需要弄清楚你的行為到底意味著什么。你不需要知道所有的東西都在哪里。但你可以有一個幫助你探索世界的人工智能。它會做一些事情,試圖弄清楚某件事的行為是如何影響世界的。隨著這種模式的發(fā)展,人工智能也會更好地了解它的授權(quán)程度。
問:當(dāng)你已經(jīng)在虛擬環(huán)境中測試過之后,為什么不在真實(shí)的世界里實(shí)施呢?
擴(kuò)大這種模式的主要障礙,以及我們?yōu)槭裁床话阉旁谌魏握嬲臋C(jī)器人身上,是因?yàn)樵谙瘳F(xiàn)實(shí)世界這樣的富裕環(huán)境下,很難計(jì)算出一個人工智能和一個人類之間的信道容量。目前有很多項(xiàng)目在努力提高它們的效率。我保持樂觀的態(tài)度,但目前這是一個計(jì)算問題。這就是為什么我們把這個框架應(yīng)用到電腦游戲的同伴機(jī)器人上,這也是一種更加簡單的形式來讓這些計(jì)算問題更容易解決。
這聽起來好像讓我們的機(jī)器變得像強(qiáng)大的功能犬一樣。
實(shí)際上,我認(rèn)識一些機(jī)器人專家,他們有意讓機(jī)器人模仿狗狗的行為。我的意思是,讓機(jī)器人像我們的狗一樣對待我們,這可能是一個我們都能接受的未來。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實(shí)內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )