2018年3月18日,美國亞利桑那州,一輛配備了安全駕駛員的Uber自動駕駛汽車,撞倒了一位違規(guī)橫穿馬路的行人,后者被送往醫(yī)院,最終不治身亡。
一年后,就在大眾輿論快要忘卻這樁悲劇的時候,它有了最新判決結果,當?shù)貦z察官在一封信中稱,Uber在事故中負有刑事責任的指控“沒有依據(jù)”,事故視頻可能并未準確地描述車禍過程,當時車上的安全駕駛員則需進一步調(diào)查。
你可以理解為:這起全球首例無人車致死事故,無人車,無罪。
在post-truth時代,任何公共事件都能成為劃分敵我的分野工具。這次也不例外,判決一出,圍攏在不同利益集團和觀念陣地的旗幟下,人們迅速開始站隊。
有人欣喜于“技術的勝利”。畢竟,是“愚蠢”的人類違規(guī)橫穿馬路在先,技術又有什么錯呢?另外,“愚蠢”的還有安全駕駛員,警方表示,Uber的自動駕駛系統(tǒng)在出事前就發(fā)現(xiàn)了受害者,但因計算機系統(tǒng)的設置問題,計算機控制模式下車輛無法自動啟用緊急剎車,剎車的責任交給了安全駕駛員,但安全駕駛員在事故當晚看了大約42分鐘的“美國好聲音”,她反復低頭,無心關注路面,就在她一次抬頭的半秒鐘后,事故發(fā)生。
不過,盡管看起來無人車是“無辜”的,但對于判決結果,也有人感到“不舒服”。畢竟,是人類對機器的信賴,造成了這樁悲劇。這也是為什么,盡管檢方目前判Uber無罪,但美國國家運輸安全委員會仍在對事故進行調(diào)查,Uber也仍有可能遭到挑戰(zhàn)。
面臨挑戰(zhàn)的不只是Uber一家公司,事實上,這樁事故也猶如一記悶棍,再次逼迫所有人思考:人類信任機器的邊界在哪里?
L5可能是個夢
截至目前,全球幾乎沒有太多完善的保險條例和法律權限來規(guī)定無人車的責任,美國40多個州在無人車法規(guī)的制定上莫衷一是,已經(jīng)足以折射出自動駕駛的現(xiàn)實痛點。
首先是技術,最近大眾商用車負責人在接受媒體采訪時表示,實現(xiàn)L5自動駕駛,堪比火星探測。
我覺得他仍然低估了L5的難度。關于自動駕駛的未來,業(yè)內(nèi)一種最極端的說法是:L5或許是一個夢。為什么?因為AI處理不了意外。
數(shù)十年前,AI概念誕生初期,當時的研究者心高氣傲,并不滿足于將機器僅用于計算,他們試圖讓AI完整拷貝人腦的思考過程,讓機器“知其然,也知其所以然”。
但眾所周知,多年以來,人類意識之謎沒有任何實質(zhì)進展,研究者開始收縮野心,重回對“計算”的追尋。如今的機器學習就是一條試圖彎道超車的捷徑,將現(xiàn)實世界以數(shù)據(jù)作為顆粒度呈現(xiàn),再通過神經(jīng)網(wǎng)絡消化數(shù)據(jù),更好地認清這個世界。
以自動駕駛為例,它最基礎的原理就是將人類司機目力所及的一切物體,路人,建筑,其他車……都構建成三維模型,關心它們之間的移動趨勢,估算速度,預測路線,有沖突就剎車或繞路。
但從邏輯上,這也幾乎意味著,無人車做不到所謂“絕對”的準確性,因為真實的交通是一個復雜生態(tài)系統(tǒng),隨機分布著各種意外。
據(jù)說谷歌自動駕駛就遇到過一些意外:比如,幾個小孩在高速路上玩青蛙;一個殘疾人坐著電動輪椅,在路上追一只鴨子,鴨子繞圈跑,他也繞圈追……面對如此荒誕場景,你很難苛求機器能百分百預測這些人的軌跡。要知道近些年人工智能領域的一切進步,都可歸為相似的框架:“輸入數(shù)據(jù),生成回應”——換句話說,由過去推導未來,機器沒法預測完全不在它經(jīng)驗范圍內(nèi)的意外。
當然,像小孩玩青蛙,殘疾人追鴨,這種意外想必大多數(shù)人也沒見過,但與機器的“沒見過”不同,因為人類“理解”他們在干嘛,就足以導向正確決策。
這也是現(xiàn)階段安全駕駛員的作用,可惜這次人類自己也失職了。
12下一頁>(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )