AI深度偽造視頻,你能認出來嗎?

有句老話叫做“眼見為實”,然而AI技術的迅猛發(fā)展正在改變這一切,大量“深度偽造”的視頻和音頻流入日常生活中,我們可能很快就不再知道如何判斷什么是真的,什么是假的。

?

最近“換頭”軟件ZAO火了,眾多用戶將各種影視劇中的明星臉替換成自己的頭像,一時朋友圈被各路“山寨明星”占領。

其實,Zao所使用的AI換頭技術并不鮮見。今年年初,一位B站博主肖先生動用Deepfakes技術,將94版《射雕》中的黃蓉由演員朱茵換成了楊冪,合成結果十分逼真,毫無違和感。

?

在全球范圍內,被換臉的不僅有娛樂圈明星,還有硅谷的互聯網大佬,和政壇的權勢人物。

此前,有人通過剪輯、拼接和慢放等手段,制作了一段美國眾議院議長南?!づ迓逦鞯难葜v視頻。

視頻中的南希言辭混亂,顛三倒四,宛如深度醉酒。最后,美國國會召開了有史以來第一場有關Deepfakes技術的聽證會,探討AI換臉的正當性。

Deepfakes到底可以做到多逼真呢?華盛頓大學研究所曾利用Deepfakes技術,成功換臉美國總統(tǒng)奧巴馬。視頻中的人,無論從相貌聲音,還是穿著打扮,都跟真的奧巴馬幾乎一致,可以輕易蒙蔽肉眼。

什么是Deepfakes?

Deepfakes 背后的技術并非高深難懂,它來自“深度學習”和“假貨”這兩個詞的組合。簡單來說,它是一個通過機器學習技術搭建的系統(tǒng):讓機器學習人的面部特征,然后合成到影片中的面部。

Deepfakes搭建的系統(tǒng)可以通過谷歌圖片搜索、網絡圖庫、Youtube視頻等途徑獲取的素材,利用這些素材通過TensorFlow等多個開源庫,訓練深度學習網絡,經過反復訓練后,系統(tǒng)就會自動替換臉部信息。

?

學習樣本越多,生成臉譜圖的還原度就會越高。這也是為什么政治家和名人往往會成為被冒充的目標,因為在線可用的視覺數據非常多。

由于Deepfakes軟件可以在開源平臺上使用,因此互聯網上的開發(fā)者們不斷完善,并在其他人的工作基礎上進行改進,機器進步的速度就越快,偽造的程度就越高。

Deepfakes的后果

Deepfakes的“面部交換技術”,最初主要用于電影業(yè)。但是在之前的幾十年里,要想改變視頻素材,都需要時間、技術高超的藝術家和大量資金。

其中一個最著名的例子是2016年的電影“星球大戰(zhàn)外傳:俠盜一號”。

在電影中,電影制作人使用面部交換和視頻合成技術,來重現角色Grand Moff Tarkin。電影中還創(chuàng)作了一部年輕版的萊婭公主。在這兩種情況下,原始演員面部的模型都疊加在替身演員身上。

在另外一個例子中,出于公眾教育目的,項目組專門開發(fā)了視頻和面部合成軟件,用來展現大屠殺幸存者的證詞,在博物館中以互動全息圖的方式呈現。

然而,Deepfakes技術的出現改變了這場游戲。隨著Deepfakes的發(fā)展和擴散,任何人都有能力制作一個令人信服的假視頻,包括一些可能為了政治或其他惡意目的而“武器化”它的人。

就像Photoshop一樣,盡管創(chuàng)作者在創(chuàng)建Deepfakes軟件時沒有惡意,但這并沒有阻止人們將其用于惡意目的。

在國內,借由AI換臉的黑科技,已經形成了一條完整的色情產業(yè)鏈。

100元打包200部換臉情色片,囊括國內一二線女明星,5張照片就可以幫你定制換臉視頻,400元就可以購買換臉軟件及教程并包教包會,成品情色視頻價格從2元1部到30元46部、100元150部和100元200部不等,一般都是打包售賣……

?

Deepfakes還可以成為傳播錯誤信息的有力工具。如今還沒有人因為深度偽造視頻,被誣陷犯罪,或被偽造死亡,但是當很難分辨出哪些視頻真實存在時,會發(fā)生什么?

還有正在困擾互聯網的假新聞,視頻比文字或圖像更有可能讓人們相信虛構的事實發(fā)生了,最糟糕的是大多數人在看到它時都無法識別它。

比如,用于政治目的的深度偽造視頻,會讓假的故事看起來充滿“證據”,顯示某些政治家承認犯錯或做出無恥的陳述,一旦這種假新聞傳播起來,后果難以想象。

?

事實上,人工智能聲音合成也在快速的發(fā)展,AI不僅可以生成虛假視頻,還可以為人們生成語音模型。

這意味著你不需要一個人去模仿政治家,而是可以通過訓練AI來模仿某位政治家的聲音,仿佛他們正在發(fā)表一個令人發(fā)指的聲明。

正是因為Deepfakes被人惡意使用,這項技術讓很多人感到前所未有的恐慌,甚至有人質疑這種技術根本就不應該開發(fā)出來給大眾使用。但技術無罪,對于這些造假的換臉視頻到底如何處理?

目前在大多數國家,沒有任何法律處理此類內容,使其難以控制。而Facebook、Twitter、Instagram的做法是不會刪除視頻,但會告訴用戶,這些視頻不是真的;承諾不作惡的谷歌更為保守,其旗下Youtebe則徹底刪除了這些視頻。

如何對抗惡意的Deepfakes?

PS摧毀大眾對圖片的信任后,Deepfakes也在摧毀大眾對視頻的信任。沒有人想在網絡看到自己的面孔說出沒說過的話,許多針對個人的傷害,也因為影響不夠大而投訴無門。

?

美國正在形成一支Deepfakes糾察隊,不僅是學校實驗室、研究中心在找尋Deepfakes的破綻,創(chuàng)業(yè)潮流也在興起。

但這是一場造假AI與辨別 AI的競賽。每篇討論Deepfakes的論文,仿佛也在同時幫助造假技術修補漏洞,進而更上一層樓。

關上Deepfakes的潘多拉盒子,他們能做到嗎?

位于硅谷的SRI International AI中心希望“以毒攻毒”,用假影片訓練算法,讓算法辨識虛擬痕跡。在人們上傳視頻到社交網站時,平臺需要重新編碼影片。這是個偵測假視頻的好時機。

但隨著Deepfakes漏洞日漸優(yōu)化,用算法打算法的難度也日益增加。辨別AI原本就是訓練造假AI的一部分,兩者剛好在生成對抗性網絡的兩端。一個是建構程序,一個是認證程序,道高一尺,魔高一丈。

由于Deepfakes的技術在于篡改資料,認證方則搜尋一切篡改資料的痕跡。一種方法是基于像素的視頻偵測,視頻其實是成千上萬幀圖片連放,細致到偵測每個像素的改變痕跡,是頗浩大的工程。

此外,假的臉部表情仍有缺陷。假臉部表情往往與其他部分不一致,計算機算法可偵測圖片或影片的不一致。

?

舉例來說,初代Deepfakes視頻的人物,眨眼方式都有點奇怪。

紐約州立大學奧爾巴尼分校計算機科學副教授Siwei Lyu曾撰文表示,成年人眨眼間隔為2-10秒,一次眨眼需要十分之一到十分之四秒。這是正常影片人物應有的眨眼頻率,但很多Deepfakes視頻的人做不到。

由于缺乏閉眼影像資料,算法的訓練并不完美,視頻人物面孔總有一種“哪里不對”的不和諧感。

然而,透過閉眼的臉部影像、或使用視頻串列訓練,可改善眨眼間隔。假視頻的質量總會提高,而研究人員需要繼續(xù)找尋檢測漏洞的方法。

南加大研究者Wael Abd-Almageed表示,社群網絡可使用算法大規(guī)模辨識Deepfakes。

為了做到自動化,研究人員首先建立一個神經網絡,“學習”人類說話時如何行動的重要特征。然后,研究人員使用這些參數將假視頻的堆棧幀輸入AI模型,偵測隨時間的不一致性。

普渡大學研究人員也采用類似方法,他們認為,隨著訓練模型的Deepfakes資料量越來越大,模型也會更精確,更容易找出假影片。

如何阻止Deepfakes從低俗娛樂發(fā)展到操縱民意,是研究者最迫切的動力之一。但愿一鍵辨假的速度,能追上一鍵換臉的速度。

Deepfakes如同普羅米修斯的火種撒向大地,帶來的究竟是溫暖還是毀滅,無人知曉。

【科技云報道原創(chuàng)】

微信公眾賬號:科技云報道

免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。

2019-09-12
AI深度偽造視頻,你能認出來嗎?
科技云報道原創(chuàng)。 有句老話叫做“眼見為實”,然而AI技術的迅猛發(fā)展正在改變這一切,大量“深度偽造”的視頻和音頻流入日常生活中,我們可能很快就不再知道如何判斷什么是真的,什么是假的。 ? 最近“換頭”軟

長按掃碼 閱讀全文