不可避免地,AI侵蝕了人類生活的方方面面,我們無法想象失去AI,生活會變成什么樣。不斷有言論叫囂——很快人工智能將占據我們的工作崗位、為人類的戰(zhàn)爭而戰(zhàn)、管理我們的健康狀況,甚至像科幻片里上演的情節(jié)一樣成為人類的主宰。
而大數據,已經將一切看在了眼里。
所以,不要為那些可笑的言論買賬。
現實情況是,計算機仍然不能像人類一樣思考,盡管它們似乎表現得有模有樣。
智能但是不智慧
計算機知道的事實比我們知道的更多——他們有更好的記憶力,能更快地計算,并且不知疲倦。機器人在機械性任務中的表現遠遠超過人類:如擰緊螺栓、播種、搜索法律文件、接收銀行存款和分發(fā)現金。計算機可以識別物體、繪制圖片、駕駛汽車……你肯定可以輕松地想到其他十幾種令人印象深刻的超人類計算機專長。
人們很容易認為,之所以計算機表現地如此優(yōu)秀,是因為它們非?!奥斆鳌?。在四月發(fā)表的一份哈佛商學院的研究報告中,實驗者研究了人們對歌曲等流行事物的看法的影響因素。部分專家認為人類比計算機更具有說服力,但在比較人和計算機提出的“建議”的影響程度后,顯然算法占了上風。
計算機的表現非常優(yōu)秀,而且會越來越好,但計算機算法的用途仍被設計地非常狹窄,其任務需要被明確定義,例如拼寫檢查和信息檢索。這與通過評估正在發(fā)生的事情、為什么會發(fā)生以及采取行動的后果來處理不熟悉的情況所需的一般智力相去甚遠。
計算機無法形成有說服力的理論、無法進行歸納推理或制定長期計劃、無法寫出令人嘆服的詩歌、小說或電影劇本,計算機不具備任何情感、感受或是靈感。從任何意義上講,計算機都不知道單詞的含義。計算機沒有人類通過生活積累的智慧。
計算機甚至不知道這些簡單問題的答案:在將橙汁與牛奶混合時,加入少許鹽,它的味道會更好嗎?如果我閉上眼睛,后退著下樓,這樣安全嗎?
我不知道開發(fā)具有與人類相媲美的一般智能的計算機需要多長時間。我懷疑這需要幾十年的時間。我確信聲稱其已經實現的人是錯的,我也不相信那些給出具體日期的人。與此同時,請對那些牽強附會的科幻場景持懷疑態(tài)度,請謹慎對待開發(fā)AI產品的企業(yè)。
探索冰山下的海
放著情感和詩歌不說,如今,使用高性能計算機挖掘大數據模式,以幫助做出重大決策的模式已經逐漸普及。當統(tǒng)計模型分析大量潛在的解釋變量時,可能的關系數量變得非常大,可能是數萬億級別的。
如果考慮到更多潛在變量,即使它們都只是隨機噪聲,有些組合必然與我們試圖通過人工智能預測的結果高度相關:癌癥、信用風險、工作適應性、犯罪可能性。偶爾會出現有價值的發(fā)現,但考慮的解釋變量越多,發(fā)現的關系就越有可能是巧合的、暫時的、無用或者更糟的。
通過監(jiān)測Facebook或Twitter上的單詞使用情況以評估求職者的算法可能會發(fā)現虛假的相關性,這些相關性是工作績效的不良預測指標,對不同性別、種族、性取向和年齡產生了不同的影響。
2016年, Admiral Insurance開發(fā)了一種汽車保險算法,評估人們在Facebook上是喜歡邁克爾·喬丹還是喜歡萊昂納德·科恩(Leonard Cohen)。在預定發(fā)布的幾個小時前,Facebook表示不會允許Admiral訪問Facebook的數據;Facebook可能更關心的不是歧視或隱私,而是它擁有自己的專利算法,可以根據你和你的Facebook好友的特征來評估貸款申請。
最近,亞馬遜的一項工作申請算法主要是針對男性工程師的簡歷進行訓練,據報道,該算法“懲罰”了簡歷中帶有“女性”字樣的簡歷。亞馬遜發(fā)現,盡管他們盡了最大努力,但其工程師仍無法確定該算法是否仍然歧視女性,因此亞馬遜決定將該軟件斃掉。
2017年,國內一家人工智能借貸App的創(chuàng)始人兼首席執(zhí)行官稱:“銀行只專注于冰山一角,但我們構建的算法要去理解海底的大量數據?!蹦敲春5子心男┯杏玫臄祿??你可能會驚訝地發(fā)現它完全與智能手機有關。
該CEO吹噓道:“我們不聘請傳統(tǒng)金融機構的任何風險控制人員,我們不需要人類告訴我們誰是好客戶,誰不好。技術就是我們的風控員。”在顯示一個人有良好信用風險的數據中,有一項數據顯示了接聽電話的頻率。這不是一種毫無意義的接電話傾向,而是肯定會歧視那些宗教信仰禁止在特定日期或特定時間接電話的人。
人工智能的黑匣子
2016年希拉里·克林頓競選團隊栽了個大跟頭。他們嚴重依賴一個軟件程序,卻忽視了人們的呼聲,以至于沒有關注密歇根州和威斯康星州,等到發(fā)現后早就為時已晚。經驗豐富的競選工作人員知道選民的熱情不足,但熱情很難衡量,所以計算機將其忽略了。
如果發(fā)現的模式隱藏在黑匣子內,情況會更加惡化,即使設計算法的研究人員和工程師也無法理解黑匣子的內部細節(jié)。通常,沒有人知道為什么電腦得出結論說應該購買某支股票,某個求職者應該被拒絕,某個病人應該接受某種藥物治療,某個囚犯應該被拒絕假釋,某幢大樓應該被炸毀。
人工智能與數字廣告以及個人數據的結合,擴大了潛在損害的范圍,特朗普競選團隊承包商劍橋分析公司就是一例。企業(yè)和政府收集的大量個人數據被用來推動和刺激我們去買我們不需要的東西,去我們不喜歡的地方,投票給我們不應該信任的候選人。
在人工智能和大數據時代,真正的危險并不是計算機比我們更聰明,而是我們認為計算機比我們更智能,進而盲從計算機為我們做出的決策。計算機并非萬無一失,我們必須要自己來判斷統(tǒng)計模式是否有意義,或者僅僅是巧合。
人類推理與人工智能存在根本性的不同,這就是為什么我們比以往更需要縝密的推理。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )