MIT合作微軟識別自動駕駛車在訓(xùn)練中與真實世界中的不匹配行為

據(jù)外媒報道,美國麻省理工學(xué)院(MIT)和微軟公司(Microsoft)研究人員研發(fā)出一個新穎的模型,可識別出自動駕駛系統(tǒng)從訓(xùn)練中學(xué)習(xí)到的,但與真實世界不匹配的實例。工程師們可利用該模型提升無人駕駛汽車、自主機器人等人工智能系統(tǒng)的安全。

例如,為無人駕駛汽車提供動力的人工智能(AI)系統(tǒng),在虛擬仿真場景中得到廣泛的訓(xùn)練,以便讓車輛為路上幾乎所有事件都做好準(zhǔn)備。但是,有時,汽車在真實世界中會出現(xiàn)意想不到的錯誤,因為汽車應(yīng)該根據(jù)發(fā)生的事件改變行為,但是自動駕駛汽車的行為并不會改變。

如果有一輛無人駕駛汽車沒有經(jīng)過訓(xùn)練,更重要的是沒有配備可以區(qū)別不同場景的傳感器,如區(qū)分路上的大型白車以及配備了紅色閃光燈的救護(hù)車。如果該車在高速公路上行駛,同時有一輛救護(hù)車鳴笛,該車可能并不知道要減速并且靠邊停下,因為它沒有了解該救護(hù)車與一輛普遍大白車的區(qū)別。此類現(xiàn)象稱為“盲點”。

有一些傳統(tǒng)的訓(xùn)練方法確實在實際測試運行期間提供人工反饋,但屬于更新系統(tǒng)的操作。此類方法不能識別“盲點”,而識別盲點對于在現(xiàn)實世界中進(jìn)行更安全的操作非常有用。而研究人員的方法是,首先將人工智能系統(tǒng)置于仿真訓(xùn)練中,在仿真訓(xùn)練中,人工智能系統(tǒng)將產(chǎn)生一種“策略”,映射它在仿真訓(xùn)練中所能采取的最佳行動。然后,該系統(tǒng)將被部署到真實世界中,如果該系統(tǒng)在真實世界中的操作屬于不可接受的范圍時,人類會提供錯誤信號。

此外,該模型可以進(jìn)行實時糾正。例如,如果人工智能系統(tǒng)在某個情境下做出了錯誤決定,人類駕駛員會控制該系統(tǒng),并做出正確決策,從而將會教會該系統(tǒng)未來在相似情境下應(yīng)該怎么做。

研究人員還研發(fā)出一種方法,可確保AI不會將某一特定反應(yīng)的所有實例都標(biāo)記為安全行為。為防止此種情況,機器學(xué)習(xí)算法將會判斷可接受和不可接受的反應(yīng),同時使用概率算法查看模式,并決定正做出的決策是完全正確的,還是可能會產(chǎn)生問題的。

目前,該模型還未在現(xiàn)實世界中接受測試。但是研究人員一直在使用視頻游戲?qū)ζ溥M(jìn)行測試,在該游戲中,有一位仿真人類會為游戲中人物的行為進(jìn)行糾正。下一步,研究人員可能將該模型應(yīng)用與真正的自動駕駛汽車及其測試系統(tǒng)。

(責(zé)編:李碩)

">

極客網(wǎng)企業(yè)會員

免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2019-01-29
MIT合作微軟識別自動駕駛車在訓(xùn)練中與真實世界中的不匹配行為
據(jù)外媒報道,美國麻省理工學(xué)院(MIT)和微軟公司(Microsoft)研究人員研發(fā)出一個新穎的模型,可識別出自動駕駛系統(tǒng)從訓(xùn)練中學(xué)習(xí)到的,但與真實世界不匹配的實例。

長按掃碼 閱讀全文