人機(jī)協(xié)作只需技術(shù)?AI想獲取人類信任,或許還需要一點(diǎn)套路

我們都相信,或許未來我們都要以人機(jī)協(xié)作的方式生存。傳說中能夠代勞一切的終極算法顯然一時(shí)半會(huì)兒不會(huì)出現(xiàn),但人類和機(jī)器人一同勞作已經(jīng)成為可能,人類也會(huì)接受越來越多來自于機(jī)器提供的服務(wù)。

如果說在人機(jī)協(xié)作上,AI技術(shù)能力的成熟與否是第一前提,那么第二前提就是人類和機(jī)器之間的信任關(guān)系了。

今天的我們總是在關(guān)注第一前提,并且取得突飛猛進(jìn)的進(jìn)展,但往往忽略第二前提的重要性。想象一下,要是人類和機(jī)器之間無法形成信任關(guān)系,人機(jī)協(xié)作的未來將會(huì)怎樣?

律師所的律師靠AI搜集整理資料,但AI搜集完了以后,律師又不放心,重新把AI助手的工作又檢查一遍,最后其實(shí)浪費(fèi)了更多的時(shí)間。而如今廠商們所宣傳的理想中的自動(dòng)駕駛,是人一上車就躺下休息,而自動(dòng)駕駛會(huì)把乘客安全的送達(dá)終點(diǎn)。可如果人類不信任自動(dòng)駕駛,這一畫面就變成了人類上了車立刻進(jìn)入緊張狀態(tài),像駕校司機(jī)一樣緊盯路況還時(shí)不時(shí)對(duì)AI的駕駛技術(shù)表示嫌棄。這樣一來,肯定是有悖于AI提升工作效率的初衷的。就連“網(wǎng)紅機(jī)器人”索菲亞都說,為了共建人類和AI之間的信任,應(yīng)該少拍點(diǎn)機(jī)器人與人類為敵的電影。

“不道德”的AI,你能相信嗎?

但首先我們要弄明白一個(gè)問題,人類真的會(huì)很難和AI建立起信任關(guān)系嗎?想想看,我們似乎天生就相信烤箱會(huì)把食物加熱而不是讓食物有毒,也相信冰箱會(huì)用低溫保存食物而不是讓食物變質(zhì)。難道到了AI這里就不靈了嗎?

這其中的差異,在于心理學(xué)上的“釋義法則”,即人們會(huì)更容易信任他們能夠理解其原理的技術(shù)??鞠涞母邷?、冰箱的低溫,其實(shí)都是千百年以來我們非常熟悉的處理食物的方式了。不信換成微波爐,這么多年了還有人質(zhì)疑它會(huì)“輻射”食物。

AI就更是如此,加上神經(jīng)網(wǎng)絡(luò)的黑箱特征,人們很難從理解原理這一層面上去信任AI。

同時(shí)當(dāng)AI進(jìn)入我們生活中的方方面面時(shí),難免會(huì)在進(jìn)行決策時(shí)遇到道德問題。最典型的“人行橋困境”就是如此,鐵軌上綁著五個(gè)無辜的人,火車即將壓過他們的身體,這時(shí)如果把人行橋上的一位大漢推下橋去,就可以阻止火車向前拯救鐵軌上的五個(gè)人。那么究竟該不該犧牲一個(gè)人的姓名拯救五個(gè)人?在現(xiàn)實(shí)中雖然不太會(huì)出現(xiàn)這種極端情況,但有沒有可能自動(dòng)駕駛在行駛時(shí)為了不發(fā)生剮蹭而碰撞到過路的動(dòng)物?這時(shí)是損害車還是損害路過的小動(dòng)物,也是一種道德困境。

面對(duì)這種狀況,哲學(xué)上有一種說法叫“后果論”,即認(rèn)為計(jì)算結(jié)果才是做出道德決策的正確途徑,結(jié)果收益最高的決策才是最道德決策。同時(shí)《實(shí)驗(yàn)心理學(xué)月刊》上的研究結(jié)果表明,那些通過后果論進(jìn)行決策的人往往人緣更差,人們會(huì)認(rèn)為他們冷酷、自私、不近人情,因?yàn)槠胀ㄈ烁敢庾袷卮鄠鞯牡赖掠^,即使那樣會(huì)得出收益不那么高的結(jié)果。

但AI的進(jìn)行的往往都是后果論決策,追求收益而非道德正確。因此研究推斷,未來人類很可能也會(huì)對(duì)AI做出的決策產(chǎn)生一些質(zhì)疑。因?yàn)槿祟悤?huì)默認(rèn)機(jī)器沒有道德感、同理心、同情心這種以往概念里一個(gè)好的決策者應(yīng)有的特質(zhì)。

AI如何獲取人類信任?除了套路還是套路

不過現(xiàn)在也有很多研究團(tuán)隊(duì)意識(shí)到了這一問題,開始想辦法研究如何建立起人機(jī)信任。目前來看,研究方向大概分為兩個(gè)角度,一個(gè)是從人的角度尋找什么樣的AI才更容易獲得人類的信賴,另一個(gè)是從AI的角度去感知和評(píng)估人類的信任程度。

MIT曾經(jīng)和新加坡科技設(shè)計(jì)大學(xué)進(jìn)行過一系列實(shí)驗(yàn),得出兩個(gè)結(jié)論,第一是想讓人類信任AI,就需要讓人類“參與”AI訓(xùn)練的過程;第二人類更希望AI指出問題而不是確認(rèn)問題。

在第一個(gè)實(shí)驗(yàn)中,人們被要求在看過一系列照片后,再在AI的輔助下從一系列圖片庫中選中自己看過的圖片。實(shí)驗(yàn)對(duì)象被分為AB兩組,A組被告知AI技術(shù)會(huì)隨著用戶選擇過程循序漸進(jìn)提升,用戶決策正確的越多,AI技術(shù)也會(huì)隨之提升。B組沒有被告知任何信息,實(shí)際上兩組AI算法的精準(zhǔn)度是一樣的。但實(shí)驗(yàn)結(jié)果是,A組實(shí)驗(yàn)對(duì)象會(huì)更信任AI算法,B組則更信任自己的選擇。

而在第二個(gè)實(shí)驗(yàn)中,算法對(duì)無人機(jī)回傳來的畫面進(jìn)行圖像識(shí)別,A組對(duì)象中AI會(huì)把畫面中的火災(zāi)、偷盜、搶劫等等畫面圈出來,B組對(duì)象中AI則會(huì)把畫面圈出來,并且標(biāo)注上“火災(zāi)”、“偷盜”、“搶劫”等等。兩組算法都有同樣的誤差比率,但實(shí)驗(yàn)結(jié)果表明A組實(shí)驗(yàn)對(duì)象對(duì)于AI的信任程度要遠(yuǎn)高于B組,畫面檢閱的效率也遠(yuǎn)高于B組。因?yàn)樵谌祟惪磥?,?duì)于具體情況的判斷失誤是一種非常嚴(yán)重的錯(cuò)誤,代表著算法很不可信,所以他們要把畫面整體都重新細(xì)細(xì)看一遍,比起A組用戶判斷標(biāo)注出來畫面的具體情況,要浪費(fèi)了不少時(shí)間。

或許未來AI獲取人類信任也需要一些“套路”,像是假裝需要人類參與訓(xùn)練,或者刻意把一些工作分擔(dān)給人類。

而最近普渡大學(xué)械工程學(xué)院推出了一項(xiàng)系統(tǒng),通過對(duì)膚電測(cè)試和腦電波測(cè)試采集人們的狀態(tài),推出適用于大眾的“通用信任模型”和個(gè)人的“個(gè)性化信任模型”。研究者表示AI工具可以和這些信任模型聯(lián)動(dòng)起來,尤其在兒童教育、老年人看護(hù)這些領(lǐng)域,對(duì)于人類信任狀態(tài)的感知可以幫助AI更好的服務(wù)人類。例如當(dāng)AI感知到人類的不信任時(shí),可以暫停當(dāng)下的工作,通過安撫一類的方式提升人類的信任。

人機(jī)信任的第一步……或許是AI打假?

不過在以上提到的幾個(gè)實(shí)驗(yàn)中,都出現(xiàn)了一個(gè)有趣的共同發(fā)現(xiàn)——人類對(duì)AI的信任程度是可以被控制的,AI的表現(xiàn)越差、給用戶造成不好的體驗(yàn),人類的信任程度越低——不管是從腦電圖的生理狀況看來還是從行為看來都是如此。

例如讓人乘坐一輛自動(dòng)駕駛的汽車,如果汽車總是無緣無故的突然剎車,讓人在車中顛簸,人類的信任程度就會(huì)快速降低。

那這么看來,真正有害于人機(jī)信任的并不是狗血科幻電影,而是那些正洶涌而來的人工智障?;蛟S如今建立人機(jī)信任最高效的方法不是別的,而是AI打假。

免責(zé)聲明:此文內(nèi)容為第三方自媒體作者發(fā)布的觀察或評(píng)論性文章,所有文字和圖片版權(quán)歸作者所有,且僅代表作者個(gè)人觀點(diǎn),與極客網(wǎng)無關(guān)。文章僅供讀者參考,并請(qǐng)自行核實(shí)相關(guān)內(nèi)容。投訴郵箱:editor@fromgeek.com。

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2018-12-15
人機(jī)協(xié)作只需技術(shù)?AI想獲取人類信任,或許還需要一點(diǎn)套路
如果說在人機(jī)協(xié)作上,AI技術(shù)能力的成熟與否是第一前提,那么第二前提就是人類和機(jī)器之間的信任關(guān)系了。

長(zhǎng)按掃碼 閱讀全文