極客網(wǎng)·人工智能10月31日 英國(guó)信息委員會(huì)(ICO)日前向科技領(lǐng)袖發(fā)出警告,最好不要購(gòu)買情感分析AI工具,因?yàn)檫@種技術(shù)并不像人們想象的那樣有效,還有可能導(dǎo)致AI偏見(jiàn)和歧視。采用了這種技術(shù)的企業(yè)可能面臨數(shù)據(jù)監(jiān)管機(jī)構(gòu)的審查和監(jiān)管,除非他們能證明該技術(shù)的有效性。
情緒分析技術(shù)采用了許多生物特征數(shù)據(jù)點(diǎn),包括注視跟蹤、情緒分析、面部運(yùn)動(dòng)、步態(tài)分析、心跳、面部表情和皮膚水分水平等,并試圖利用這些數(shù)據(jù)來(lái)確定或預(yù)測(cè)某人的情緒狀態(tài)。
英國(guó)信息委員會(huì)副信息專員Stephen Bonner表示,問(wèn)題在于沒(méi)有證據(jù)表明這種方法確實(shí)有效,而且有很多證據(jù)表明它并不可靠。如果企業(yè)依賴于采用情感分析AI工具的調(diào)查結(jié)果,這更有可能導(dǎo)致錯(cuò)誤的結(jié)果,從而造成傷害。
他警告,如果一家公司在工作中采用了情緒分析AI工具,那么它受到調(diào)查的門檻將會(huì)“非常低”。
“有時(shí)候當(dāng)新技術(shù)被推廣時(shí),人們就會(huì)想,‘讓我們拭目以待,并獲得雙方的理解’,對(duì)于其他合法的生物識(shí)別技術(shù),我們絕對(duì)會(huì)這么做。但就情感分析AI而言,沒(méi)有合法證據(jù)表明這種技術(shù)可以發(fā)揮作用。我們將極為密切地關(guān)注這一問(wèn)題,并愿意更迅速地采取有力的行動(dòng)。責(zé)任在于那些選擇利用這一點(diǎn)向所有人證明這是值得的,因?yàn)闊o(wú)罪推定似乎根本沒(méi)有科學(xué)依據(jù)。”他補(bǔ)充道。
情感分析AI在某些情況下是有用的
但Bonner表示,有一些例子表明這項(xiàng)技術(shù)已經(jīng)被應(yīng)用或建議作為一個(gè)用例,包括通過(guò)提供可穿戴工具來(lái)監(jiān)測(cè)工作人員的情緒和健康狀況,以及使用各種數(shù)據(jù)點(diǎn)來(lái)記錄和預(yù)測(cè)潛在的健康問(wèn)題。
但是,尚未成熟的檢測(cè)情緒線索的算法將導(dǎo)致系統(tǒng)性偏見(jiàn)、不準(zhǔn)確和歧視的風(fēng)險(xiǎn)。該技術(shù)依賴于收集、存儲(chǔ)和處理大量的個(gè)人數(shù)據(jù),其中包括潛意識(shí)的行為或情緒反應(yīng)。這種數(shù)據(jù)使用的風(fēng)險(xiǎn)遠(yuǎn)遠(yuǎn)高于用于驗(yàn)證或識(shí)別個(gè)人身份的傳統(tǒng)生物識(shí)別技術(shù)。
需要指出的是,英國(guó)信息委員會(huì)并沒(méi)有禁止使用這類技術(shù),只是發(fā)出警告,由于涉及風(fēng)險(xiǎn),實(shí)施這樣技術(shù)的企業(yè)將受到審查。只要有明確的聲明,用戶可以將它作為噱頭或娛樂(lè)工具使用。
Bonner說(shuō):“在生物測(cè)量和推斷結(jié)果意圖之間有一些區(qū)別。我認(rèn)為,可以通過(guò)某人的聲音來(lái)檢測(cè)他的壓力水平,這是有道理的。但是從這一點(diǎn)上來(lái)說(shuō),如果就這樣判定他是騙子就有些太過(guò)分了。我們不會(huì)禁止使用AI來(lái)判斷誰(shuí)看起來(lái)不安的做法,但如果只是一些人感到不安,不推斷他們?cè)噲D通過(guò)自己的生物特征進(jìn)行欺詐,那么這種做法是錯(cuò)誤的?!?nbsp;
生物識(shí)別技術(shù)的跨行業(yè)影響
生物識(shí)別技術(shù)預(yù)計(jì)將對(duì)各行業(yè)領(lǐng)域產(chǎn)生重大影響,從金融服務(wù)公司通過(guò)面部識(shí)別驗(yàn)證人類身份,到使用語(yǔ)音識(shí)別代替密碼訪問(wèn)服務(wù)。
英國(guó)信息委員會(huì)正在與Ada Lovelace研究所和英國(guó)青年委員會(huì)合作制定新的生物識(shí)別指南。該指南將會(huì)“以人為本”,預(yù)計(jì)將于明年春季對(duì)外發(fā)布。
艾倫·圖靈研究所的倫理研究員Mhairi Aitken博士對(duì)英國(guó)信息委員會(huì)的警告表示歡迎,但他指出,同樣重要的是要審視這些系統(tǒng)的開(kāi)發(fā),并確保開(kāi)發(fā)人員采取符合倫理的方法,并在有需要的地方創(chuàng)建和使用工具。
她說(shuō):“開(kāi)發(fā)技術(shù)或新應(yīng)用程序的道德方法必須從哪些人可能是受影響的社區(qū)開(kāi)始,并讓他們參與這個(gè)過(guò)程,看看它在部署的環(huán)境中是否真的合適。這個(gè)過(guò)程讓我們有機(jī)會(huì)意識(shí)到可能沒(méi)有預(yù)料到的任何危害?!?/p>
情感檢測(cè)AI是一種真正的傷害風(fēng)險(xiǎn)
Aitken博士表示,這種AI模型可能造成的危害是巨大的,特別是對(duì)那些可能不符合構(gòu)建預(yù)測(cè)模型時(shí)開(kāi)發(fā)的模型的人來(lái)說(shuō)。她補(bǔ)充說(shuō):“這是一個(gè)非常復(fù)雜的領(lǐng)域,要開(kāi)始思考我們?nèi)绾螌⑦@樣的事情實(shí)現(xiàn)自動(dòng)化,并能夠考慮到文化差異和情感差異?!?nbsp;
Aitken博士指出,AI系統(tǒng)很難確定在不同環(huán)境下什么的情緒反應(yīng)是合適的,“我們表達(dá)情感的方式非常不同,這取決于我們和誰(shuí)在一起以及所處的環(huán)境。此外,還需要考慮這些AI系統(tǒng)是否能夠充分考慮人們的情緒表現(xiàn)方式?!?/p>
Bonner表示,在娛樂(lè)中使用情感AI工具的危害很小,但Aitken博士警告說(shuō),這種用例有其自身的風(fēng)險(xiǎn),包括人們開(kāi)始習(xí)慣于采用這項(xiàng)技術(shù)并認(rèn)為它確實(shí)有效?!叭绻褂?,除非明確地貼上娛樂(lè)的標(biāo)簽。”
Bonner補(bǔ)充說(shuō),當(dāng)涉及到情感AI時(shí),問(wèn)題在于每個(gè)人之間有太多的數(shù)據(jù)點(diǎn)和差異,因此難以開(kāi)發(fā)一個(gè)理想模型。有關(guān)這一點(diǎn)已經(jīng)在多篇關(guān)于該技術(shù)的研究論文中得到了證明?!叭绻腥苏f(shuō),‘我們已經(jīng)解決了問(wèn)題,可以做出準(zhǔn)確的預(yù)測(cè)’,那么他們可能會(huì)創(chuàng)造奇跡,但我認(rèn)為這種事情不會(huì)發(fā)生?!?/p>
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來(lái)自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁(yè)或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說(shuō)明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開(kāi)相關(guān)鏈接。 )