credit: 銳景創(chuàng)意
在一項備受爭議的新研究中,研究人員表示人工智能可以被用來準確地測試某人的性取向。研究表明“深度神經網絡能夠比人類更精確地從面部表情中檢測出性取向”,他們利用深度神經網絡對公開約會網站上3.5萬張照片進行了檢測。這項初步研究被發(fā)表在《個性與社會心理學雜志》上,作者是斯坦福大學商學院教授Michal Kosinski,他同時也是心理計算學家和大數據科學家。
如果沒有人工智能的幫助,單憑人類準確判斷男性是彎還是直的概率為61%,女性是54%。人工智能的準確率為81%和71%。人工智能程序不僅會研究固定的面部特征,比如一個人鼻子的形狀,還會觀察瞬態(tài)的特征,例如儀容儀表。
值得指出的是,研究人員使用的圖像樣本有一定的局限性。首先他們使用的都是約會網站上的圖片,并不一定是每個人的真實照片,同時這項研究只收集了年齡在18-40歲之間白人的照片。
反同志歧視聯(lián)盟(GLAAD)的首席數字官Jim Halloran表示:“人工智能能夠檢測性取向是帶有嚴重缺陷的。他們對約會網站上標準的描述,忽略了LGBTQ的巨大群體,其中包括有色人種、跨性別者、老年人和其他不想在約會網站上發(fā)布照片的人。”
同時GLAAD和HRC(人權委員會)也進一步指出,這項研究并沒有核實人們的信息,只假定了兩種性取向,沒有包括雙性戀個人的數據,也沒有經過同行評議。更令人沮喪的是,這些組織表示,這種“垃圾科學”甚至可能成為錯誤的威脅手段。
性取向是個人的選擇。如果人工智能能夠準確的檢測我們的性取向,這可能會讓我們感覺赤裸地暴露在別人的視野中。監(jiān)獄社交媒體網站和政府數據庫中存儲有數十億張的人類面部照片,研究人員認為,公共數據可能會不經個人同意而直接被用于檢測人們的性取向。
當婚姻中的一方懷疑自己被騙婚,可能會使用這項技術檢測對方的性取向。但隨著深層神經網絡不斷推進,也可能導致濫用,堅持檢舉LGBT人群的政府可以對目標人口使用這項技術。并以此起訴那些同性戀者或非異性戀者(某些國家將同性戀視為應受懲罰的犯罪行為)。目前至少有10個國家對同性戀判處死刑,在74個國家同性戀是非法的。
無論如何,頭條媒體上的爭議可能已經損害了該研究的出版前景。《個性與社會心理學雜志》的編輯透露,該研究論文正在接受倫理審查,這意味著我們在了解這項研究的現狀之前,可能還要好幾周的時間。
本文譯自bigthink,由譯者 鏡子大王 基于創(chuàng)作共用協(xié)議(BY-NC)發(fā)布。
(免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。 )