credit: 銳景創(chuàng)意
在一項備受爭議的新研究中,研究人員表示人工智能可以被用來準(zhǔn)確地測試某人的性取向。研究表明“深度神經(jīng)網(wǎng)絡(luò)能夠比人類更精確地從面部表情中檢測出性取向”,他們利用深度神經(jīng)網(wǎng)絡(luò)對公開約會網(wǎng)站上3.5萬張照片進(jìn)行了檢測。這項初步研究被發(fā)表在《個性與社會心理學(xué)雜志》上,作者是斯坦福大學(xué)商學(xué)院教授Michal Kosinski,他同時也是心理計算學(xué)家和大數(shù)據(jù)科學(xué)家。
如果沒有人工智能的幫助,單憑人類準(zhǔn)確判斷男性是彎還是直的概率為61%,女性是54%。人工智能的準(zhǔn)確率為81%和71%。人工智能程序不僅會研究固定的面部特征,比如一個人鼻子的形狀,還會觀察瞬態(tài)的特征,例如儀容儀表。
值得指出的是,研究人員使用的圖像樣本有一定的局限性。首先他們使用的都是約會網(wǎng)站上的圖片,并不一定是每個人的真實照片,同時這項研究只收集了年齡在18-40歲之間白人的照片。
反同志歧視聯(lián)盟(GLAAD)的首席數(shù)字官Jim Halloran表示:“人工智能能夠檢測性取向是帶有嚴(yán)重缺陷的。他們對約會網(wǎng)站上標(biāo)準(zhǔn)的描述,忽略了LGBTQ的巨大群體,其中包括有色人種、跨性別者、老年人和其他不想在約會網(wǎng)站上發(fā)布照片的人?!?/p>
同時GLAAD和HRC(人權(quán)委員會)也進(jìn)一步指出,這項研究并沒有核實人們的信息,只假定了兩種性取向,沒有包括雙性戀個人的數(shù)據(jù),也沒有經(jīng)過同行評議。更令人沮喪的是,這些組織表示,這種“垃圾科學(xué)”甚至可能成為錯誤的威脅手段。
性取向是個人的選擇。如果人工智能能夠準(zhǔn)確的檢測我們的性取向,這可能會讓我們感覺赤裸地暴露在別人的視野中。監(jiān)獄社交媒體網(wǎng)站和政府?dāng)?shù)據(jù)庫中存儲有數(shù)十億張的人類面部照片,研究人員認(rèn)為,公共數(shù)據(jù)可能會不經(jīng)個人同意而直接被用于檢測人們的性取向。
當(dāng)婚姻中的一方懷疑自己被騙婚,可能會使用這項技術(shù)檢測對方的性取向。但隨著深層神經(jīng)網(wǎng)絡(luò)不斷推進(jìn),也可能導(dǎo)致濫用,堅持檢舉LGBT人群的政府可以對目標(biāo)人口使用這項技術(shù)。并以此起訴那些同性戀者或非異性戀者(某些國家將同性戀視為應(yīng)受懲罰的犯罪行為)。目前至少有10個國家對同性戀判處死刑,在74個國家同性戀是非法的。
無論如何,頭條媒體上的爭議可能已經(jīng)損害了該研究的出版前景?!秱€性與社會心理學(xué)雜志》的編輯透露,該研究論文正在接受倫理審查,這意味著我們在了解這項研究的現(xiàn)狀之前,可能還要好幾周的時間。
本文譯自bigthink,由譯者 鏡子大王 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實,并對任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )