AI審核不靠譜?微軟Bing被曝顯示兒童色情內(nèi)容

微軟在2019年年初就遭遇了不少的危機,今天,據(jù)外媒報道,微軟的Bing搜索中有一些相關的關鍵字,正在為戀童癖者提供大量的兒童色情內(nèi)容,微軟回復正在努力修復中。

安全公司的調(diào)研中發(fā)現(xiàn),微軟必應搜索不僅僅會在搜索結果中返回裸體兒童照片,如果用戶點擊這些圖片,必應也會在類似圖片功能中展示更多非法虐待兒童圖像,他們還會向用戶推薦其他類似搜索關鍵詞,從而跳轉(zhuǎn)出更多的兒童色情內(nèi)容。

然而,谷歌的類似搜索卻沒有像必應這樣出現(xiàn)明顯的非法圖像以及內(nèi)容。對此,微軟必應和人工智能產(chǎn)品副總裁喬迪·里伯斯(Jordi Ribas)表示,“研究人員發(fā)現(xiàn)的搜索結果確實違反了網(wǎng)站規(guī)則,公司正在努力防止此類事故的發(fā)生。”

此前,微軟宣布正在通過他們的AI研究成果讓必應搜索變得更加智能。去年,他們還通過使用專門的人工智能計算硬件BrainWave,使機器學習模型的性能提高10倍以上,增強了微軟必應搜索引擎的功能。

而在兒童色情內(nèi)容上,微軟還開創(chuàng)了PhotoDNA技術,實現(xiàn)兒童性虐圖片檢測的自動化,讓此類非法圖片可以由電腦程序而非工程師自動識別。

據(jù)了解,PhotoDNA可以將圖片轉(zhuǎn)化為常見的黑白格式,還能將圖片尺寸調(diào)整至指定大小。然后該技術會把圖片分成一個個正方形,同時給每一個正方形內(nèi)存在的特有底紋分配一個數(shù)值。這些數(shù)值結合在一起以后,就代表一個圖像文件的“PhotoDNA簽名”。這種獨一無二的簽名可以被用于與其他在線圖片進行比對。

早些時候,微軟已經(jīng)將PhotoDNA技術應用在必應上,用來識別兒童性虐圖片,阻止這些照片在網(wǎng)上進一步傳播。

現(xiàn)在,必應卻被曝出這種負面事件,可以看到這項AI技術似乎并沒有預料中的有效,技術并沒有過濾掉那些非法色情的內(nèi)容。

當然,不僅僅是搜索引擎會遇到這種問題,社交平臺、內(nèi)容分發(fā)平臺也經(jīng)常被曝出各種性虐色情內(nèi)容傳播,其實這也在某種程度上反映了整個科技行業(yè)的現(xiàn)狀,當科技公司過于追求營收的增長以及效率,就會忽視對公眾利益的保護,比如如何在機器審核和人工審核之間的達到平衡。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )

贊助商
2019-01-11
AI審核不靠譜?微軟Bing被曝顯示兒童色情內(nèi)容
微軟在2019年年初就遭遇了不少的危機,今天,據(jù)外媒報道,微軟的Bing搜索中有一些相關的關鍵字,正在為戀童癖者提供大量的兒童色情內(nèi)容,微軟回復正在努力修復中。

長按掃碼 閱讀全文