Cassie Kozyrkov在過去五年里在谷歌擔任過各種各樣的技術(shù)職務,但她現(xiàn)在擔任著“首席決策科學家”這個有點奇怪的職位。“決策科學是數(shù)據(jù)和行為科學的交叉學科,涉及統(tǒng)計學、機器學習、心理學、經(jīng)濟學等。
實際上,這意味著Kozyrkov幫助谷歌推動了一個積極的人工智能議程——或者,至少,讓人們相信人工智能并不像許多人宣稱的那么糟糕。
焦慮“機器人正在偷走我們的工作”,“人工智能是人類生存的最大威脅”,類似的言論已不絕如耳,尤其在過去幾年里,這種擔憂變得更加明顯。
人工智能對話助手滲入我們的家中,汽車和卡車自動駕駛似乎指日可待,機器可以在電腦游戲中打敗人類,甚至創(chuàng)意藝術(shù)也不能幸免于人工智能的沖擊。另一方面,我們也被告知枯燥重復的工作可能會成為過去。
人們對自己在自動化世界中的未來感到焦慮和困惑,這是可以理解的。但是,根據(jù)Kozyrkov的說法,人工智能只是人類努力方向的延伸。
“人類的故事就是自動化的故事,” Kozyrkov表示?!叭祟惖氖吩娋褪且咽虑樽龅酶谩獜挠腥四闷鹨粔K石頭砸向另一塊石頭的那一刻起,因為事情可以做得更快。我們是一個制造工具的物種,我們反抗苦差事?!?/p>
對人工智能潛在恐懼的原因是我們覺得它可以做得比人類更好,但這種擔心并不成立。Kozyrkov認為,所有工具都比人類好。理發(fā)師用剪刀理發(fā),因為用手把頭發(fā)剪出來是一種不太理想的體驗。印刷機使文本的大規(guī)模生產(chǎn)成為可能,其規(guī)模是人類用鋼筆無法復制的。但筆本身就開啟了一個充滿機遇的世界。
“我們所有的工具都比人類好——這就是工具的意義所在,” Kozyrkov繼續(xù)說道?!叭绻麤]有工具你可以做得更好,為什么要使用工具呢?如果你擔心電腦的認知能力比你強,那我要提醒你,你的筆和紙在記憶方面比你強。我的水桶比我更擅長裝水,我的計算器比我更擅長把六位數(shù)相乘。人工智能在某些方面也會變是如此。”
當然,許多人對人工智能和自動化的潛在恐懼并不是說它會比人類更擅長做事。對許多人來說,真正的危險在于,任何惡意實體可以肆無忌憚地對我們的一舉一動進行跟蹤和微觀管理,從而在我們身上投下反烏托邦的陰影——幾乎不費任何力氣就能實現(xiàn)一個秘密的宏偉愿景。
其他的擔憂與算法偏見、缺乏足夠的監(jiān)督以及最終的末日場景有關(guān):如果某件事發(fā)生了嚴重且無意的錯誤,該怎么辦?
偏見研究人員已經(jīng)證明了人臉識別系統(tǒng)中固有的偏見,比如亞馬遜的Rekognition。民主黨總統(tǒng)候選人參議員Elizabeth Warren此前呼吁聯(lián)邦機構(gòu)解決算法偏見的問題,比如美聯(lián)儲如何處理貨幣貸款歧視。
但人們對人工智能如何真正減少人類現(xiàn)有偏見的關(guān)注少之又少。
舊金山最近宣稱,它將使用人工智能來減少對犯罪嫌疑人的偏見,例如,自動修改警方報告中的某些信息。
在招聘領(lǐng)域,風投支持的Fetcher正著手幫助企業(yè)利用人工智能尋找人才。該公司聲稱,人工智能還有助于將人類偏見降到最低。Fetcher通過在線渠道自動尋找潛在候選人,并使用關(guān)鍵字來確定個人可能擁有的技能,而這些技能并沒有列在個人資料中。該公司將其平臺宣傳為消除招聘偏見的一種簡單方法,因為如果你訓練一個系統(tǒng)遵循一套嚴格的標準,只關(guān)注技能和經(jīng)驗,性別、種族或年齡等因素將不會被考慮在內(nèi)。
Fetcher聯(lián)合創(chuàng)始人兼首席執(zhí)行官Andres Blank表示:“我們相信,我們可以利用技術(shù)來解決多種形式的招聘偏見,幫助公司建立更加多樣化和包容性的組織。”
但對人工智能系統(tǒng)性歧視的擔憂,是許多人工智能領(lǐng)域的首要議題。微軟敦促美國政府監(jiān)管面部識別系統(tǒng),研究人員正致力于在不影響預測結(jié)果準確性的前提下,減少人工智能中的偏見。
人為因素最重要的是,人工智能還處于相對起步階段,我們?nèi)栽谘芯咳绾谓鉀Q算法偏見等問題。但Kozyrkov表示,人工智能所顯示的偏見與現(xiàn)有的人類偏見是一樣的——用于訓練機器的數(shù)據(jù)集與用于教育人類的教科書完全一樣。
“數(shù)據(jù)集和教科書都有人類作者——它們都是根據(jù)人類的指令收集的,”她說。“如果你給你的學生一本由一位懷有嚴重偏見的作者編寫的教科書,你認為你的學生不會染上同樣的偏見嗎?”
當然,在現(xiàn)實世界中,受人尊敬的同行評審的期刊或教科書應該有足夠的監(jiān)督來對抗任何明顯的偏見——但如果作者、他們的數(shù)據(jù)源以及鼓勵學生閱讀教科書的老師都有同樣的偏見呢?任何陷阱可能要到很久以后才會被發(fā)現(xiàn),到那時想要阻止任何不良影響就太晚了。
因此,Kozyrkov夫認為,“視角的多樣性”對于確保偏見最小化是必不可少的。
她說:“你對數(shù)據(jù)的關(guān)注越多,你就越有可能發(fā)現(xiàn)那些潛在的不良案例。所以在人工智能中,多樣性是必須擁有的。你確實需要從不同的角度來看待和思考如何使用這些例子來影響世界。”
測試與學生考試的現(xiàn)實世界類似,在部署人工智能算法和機器學習模型之前測試它們,是確保它們能夠執(zhí)行設(shè)定的任務。
人類學生如果被問到他們事先學習過的問題,他們可能在考試中表現(xiàn)得非常好,但這可能是因為他們有很好的記憶力,而不是對手頭的科目有一個完整的理解。為了測試更廣泛的理解能力,需要給學生一些問題,讓他們能夠應用所學知識。
機器學習是在同樣的前提下運行的——存在一種被稱為“過度擬合”的建模錯誤,在這種錯誤中,一個特定的函數(shù)與訓練數(shù)據(jù)過于緊密地對齊,可能會出現(xiàn)誤報?!半娔X的記憶力真的很好,” Kozyrkov說,“所以你真正測試他們的方法是給他們一些真實的新東西,他們不可能記住的。如果成功了,那就是真的成功了?!?/p>
Kozyrkov將安全有效的人工智能的四項原則與教授人類學生的四項基本原則進行了比較,基本是類似的:
明智的教學目標相關(guān)和多樣化的觀點精心制作的測試安全網(wǎng)不過,即使是最精心設(shè)計、初衷最好的人工智能系統(tǒng)也可能失敗或犯錯——事實上,系統(tǒng)越好,在某些方面就越危險,就像人類學生一樣。
“即使你的學生真的很好,他們也可能犯錯誤,” Kozyrkov說,“事實上,在某些方面,差學生比好生更危險,因為有了差生,你已經(jīng)習慣了他們犯錯誤,所以你已經(jīng)有了安全網(wǎng)。但是對于好生,如果你從來沒有見過他們犯錯誤,你可能會認為他們從來沒有犯過錯誤。這可能只會讓你花費更長的時間,然后就是災難性的失敗。”
這種“安全網(wǎng)”可以采取多種形式,但它往往涉及建立一個單獨的系統(tǒng),而不是“過分信任你的好學生,” Kozyrkov說。在一個例子中,一個房主配置了他的智能攝像頭和鎖系統(tǒng),如果它發(fā)現(xiàn)了一張不熟悉的面孔,就會啟動它——但有點滑稽的是,它錯誤地將房主識別為他T恤上的蝙蝠俠形象,并拒絕他進入。
所有這一切都指向一個可能對許多人來說顯而易見但或許值得重復的觀點:人工智能是其創(chuàng)造者的反映。因此,我們需要集中精力實現(xiàn)系統(tǒng)和檢查,以確保那些構(gòu)建機器的人(“教師”)是負責任的。
圍繞“機器教學”的重要性,人們達成了越來越多的共識。微軟等公司最近表示,人工智能的下一個前沿領(lǐng)域?qū)⑹抢萌祟悓I(yè)人士的專業(yè)技能來訓練機器學習系統(tǒng),而不管專家是否具備人工智能知識或編程能力。
“是時候讓我們把重點放在機器教學上,而不僅僅是機器學習了,” Kozyrkov指出。“不要讓科幻小說的花言巧語分散你對人類責任的注意力,從一開始就關(guān)注參與其中的人類。從領(lǐng)導者設(shè)定的目標,到工程師編寫、分析師和決策者核查的數(shù)據(jù)集,再到統(tǒng)計學家進行的測試,再到可靠性工程師構(gòu)建的安全網(wǎng),所有這些都包含了很多人為因素。”(來源:獵云網(wǎng))
- 特斯拉市值一夜蒸發(fā)超6400億元,美股科技“七巨頭”陷入調(diào)整區(qū)間
- 阿里巴巴于上海新設(shè)智信普惠科技公司,布局多領(lǐng)域技術(shù)服務
- 馬化騰短暫登頂中國富豪榜,騰訊科技與股價雙輪驅(qū)動成關(guān)鍵
- 本地生活賽道:2025年紅海變“血?!?,平臺競逐白熱化
- 義烏哪吒小商品熱賣:緊跟《哪吒2》熱潮,一天賣幾百套
- 美恢復接收中國包裹,貿(mào)易政策突變引發(fā)物流界震蕩
- DeepSeek或再掀波瀾,可能對美股市場造成新一輪打擊
- 谷歌股價暴跌:收入增長放緩,人工智能支出引投資者擔憂
- 華為去年銷售收入超8600億元:ICT基礎(chǔ)設(shè)施穩(wěn)健,新業(yè)務快速發(fā)展
- 特斯拉CEO馬斯克身家暴漲,穩(wěn)居全球首富寶座
免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。