文/陳根
2017 年底,國外論壇出現(xiàn)的一個(gè)ID 為“deepfakes”的用戶發(fā)布了通過機(jī)器學(xué)習(xí)來更換視頻人臉的人工智能算法,一腳踢開了人工智能換臉大門。不過當(dāng)時(shí)該技術(shù)的使用門檻還比較高,需要編譯代碼等操作。
而一個(gè)月后,有人將他公開的的算法加以改造推出簡易版人工智能換臉工具“FakeApp”,這次,就算是普通用戶,也能夠順利操作。
隨著換臉技術(shù)的升級(jí)及相關(guān)應(yīng)用的開源,換臉用途也從最初的娛樂逐漸演變成犯罪工具,引發(fā)了人們越來越多對(duì)人工智能換臉的擔(dān)憂。
首先是對(duì)于信息的真實(shí)性形成嚴(yán)峻的挑戰(zhàn)。PS 發(fā)明后,有圖不再有真相;而人工智能換臉技術(shù)的出現(xiàn),則讓圖像也開始變得鏡花水月了起來:這對(duì)于本來就假消息滿天飛的互聯(lián)網(wǎng)來說,無疑會(huì)造成進(jìn)一步的信任崩壞。
其次,這會(huì)大大增加侵犯肖像權(quán)的可能,沒人愿意自己的臉龐出現(xiàn)在莫名其妙的視頻當(dāng)中,此前就有在某成人視頻網(wǎng)站上,某女星的臉被“安”在了成人視頻女主角臉上的報(bào)道,這將給女星的名譽(yù)帶來極大的負(fù)面影響。
鑒于這項(xiàng)技術(shù)所帶來的倫理問題和潛在威脅,先進(jìn)的 DeepFake 檢測技術(shù)將非常重要。
在以前的研究中,DeepFake 視頻檢測主要專注于在具備強(qiáng)監(jiān)督標(biāo)注的情況下,如何較好地檢測到 DeepFake 圖像或者人臉。
現(xiàn)在,阿里安全圖靈實(shí)驗(yàn)室和中科院計(jì)算所合作完成的一項(xiàng)研究更加關(guān)注現(xiàn)實(shí)中廣泛存在的問題:部分攻擊(篡改)的視頻,即視頻中只有部分人臉被篡改了。
具體來說,該研究提出了基于多實(shí)例學(xué)習(xí)的 DeepFake 檢測框架,將人臉和輸入視頻分別當(dāng)作多實(shí)例學(xué)習(xí) (Multiple Instance Learning, MIL) 里的實(shí)例和包進(jìn)行檢測。
然而,傳統(tǒng)的多實(shí)例學(xué)習(xí)存在梯度消失問題。為此,研究人員提出了 Sharp-MIL (S-MIL),將多個(gè)實(shí)例的聚合由輸出層提前到特征層,一方面使得聚合更加靈活,另一方面也利用偽造檢測的目標(biāo)函數(shù)直接指導(dǎo)實(shí)例級(jí)深度表征的學(xué)習(xí),從而緩解傳統(tǒng)多實(shí)例學(xué)習(xí)面臨的梯度消失難題。該研究通過理論證明了 S-MIL 可以緩解傳統(tǒng) MIL 存在的梯度消失問題。
研究人員表示,除了部分換臉檢測任務(wù)之外,該研究成果對(duì)于一般性的視頻多實(shí)例學(xué)習(xí)與標(biāo)注技術(shù)研究也具有重要的啟發(fā)意義,而人工智能換臉技術(shù)及其檢測技術(shù)也值得我們持續(xù)關(guān)注。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )