極客網(wǎng)·人工智能5月17日 我們正處在一個(gè)越來越容易制造虛假信息的時(shí)代。深度造假(Deepfakes)、擴(kuò)散模型、生成對(duì)抗網(wǎng)絡(luò)(GAN)以及其他AI技術(shù)被居心不良者用于偽造照片和視頻,或者創(chuàng)建從未發(fā)生過的事件的一些照片或視頻。
雖然AI生成的圖像和信息有許多積極的應(yīng)用,但它們也可能被用于邪惡的目的。而有了無縫操縱和扭曲現(xiàn)實(shí)的能力,居心不良者可以利用AI欺騙公眾,傳播錯(cuò)誤信息。
以下簡要探討深度造假的威脅,并介紹一些檢測AI生成信息的技巧。生成式AI這個(gè)領(lǐng)域正在迅速發(fā)展,所以必須尋找到新的技術(shù)和對(duì)策。
AI可以生成哪些信息?
雖然羅馬教皇穿著羽絨服、美國前總統(tǒng)唐納德·特朗普拒捕及烏克蘭總統(tǒng)澤連斯基呼吁投降等這些事件并沒有真實(shí)發(fā)生,但有關(guān)他們的圖片和視頻已經(jīng)在社交媒體上流傳。
這些就是用AI系統(tǒng)創(chuàng)建的圖像和視頻。如今,有幾種深度學(xué)習(xí)技術(shù)可以制造虛假信息:
· Deepfakes:Deepfakes使用兩個(gè)深度神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)演員和目標(biāo)人物的面部特征。然后將目標(biāo)的面部映射到演員的臉上。有了這樣的算法,Deepfakes已經(jīng)變得更加真實(shí)以及非常有說服力。
· 擴(kuò)散模型:這些是在大量圖像和字幕數(shù)據(jù)集上訓(xùn)練的神經(jīng)網(wǎng)絡(luò)。通過找到連接文本和圖像的模型,這些模型可以從文本描述中生成令人信服的圖像。DALL-E2、Midtravel和Stable Diffusion是流行的擴(kuò)散模型的三個(gè)例子。
· 生成對(duì)抗網(wǎng)絡(luò)(GAN):生成對(duì)抗網(wǎng)絡(luò)(GAN)是一種深度學(xué)習(xí)系統(tǒng),可以從零開始創(chuàng)建逼真的圖像,例如人臉和風(fēng)景。
AI生成信息的潛在危害
由Midjourney生成的美國前總統(tǒng)唐納德·特朗普拒捕的虛假圖像
Deepfakes已經(jīng)推出幾年的時(shí)間,但在過去幾年里,這種技術(shù)取得了令人印象深刻的進(jìn)展。通過與其他生成式AI技術(shù)(如語音合成器和大型語言模型)相結(jié)合,其生成的內(nèi)容可能成為真正的威脅。
雖然我們?nèi)蕴幱诳梢苑直鍭I生成的信息的階段,但需要注意它們會(huì)如何影響公眾輿論:
· 錯(cuò)誤信息的傳播:圖片和視頻在社交媒體上傳播得非常快。當(dāng)事實(shí)核查人員或AI生成信息的目標(biāo)做出回應(yīng)時(shí),可能已經(jīng)造成了損害。特別是當(dāng)Deepfakes的創(chuàng)造者可以將它們與逼真的AI生成的聲音結(jié)合起來時(shí),它們會(huì)變得非常有說服力。
· 曼德拉效應(yīng):很多人都記得上世紀(jì)80年代納爾遜·曼德拉在南非監(jiān)獄里去世的傳聞。實(shí)際上,他于1990年從監(jiān)獄獲釋,后來成為南非總統(tǒng)。但是,即使事實(shí)是顯而易見的,虛假的故事已經(jīng)在許多人的腦海中根深蒂固。這就是眾所周知的“曼德拉效應(yīng)”,還有許多其他的真實(shí)例子。而有了Deepfakes,這樣的問題可能會(huì)更頻繁地出現(xiàn)。
· 社會(huì)工程:Deepfakes和生成式AI使制作令人信服的電子郵件、視頻、網(wǎng)站等以及進(jìn)行網(wǎng)絡(luò)釣魚變得更加容易。居心不良者可以使用這些AI模型來創(chuàng)建逼真的化身,制作專業(yè)電子郵件,并創(chuàng)建聽起來像真人的語音信息。他們可以利用這些數(shù)據(jù)欺騙受害者泄露隱私信息,向網(wǎng)絡(luò)攻擊者匯款,或者實(shí)施其他有害的活動(dòng)。例如,去年一家假冒的律師事務(wù)所使用生成式AI通過DMCA通知勒索受害者。
· 信任流失:Deepfakes的興起將使人們更難信任他們所看到的任何東西,判斷真假將變得越來越困難。一方面,居心不良者會(huì)試圖用生成式AI扭曲真相;而在另一方面,他們可能會(huì)否認(rèn)真實(shí)的證據(jù),并聲稱真實(shí)的文件和視頻是由AI生成的。
如何分辨出那些AI生成的信息?
雖然研究人員不斷創(chuàng)造新的技術(shù)和工具來檢測Deepfakes和其他AI系統(tǒng)生成的圖像和視頻。但這是一場貓捉老鼠的游戲,因?yàn)殡S著技術(shù)的進(jìn)步,原有的檢測技術(shù)就會(huì)過時(shí)。目前有一些關(guān)鍵的方法可以幫助檢測深度造假視頻、GAN人臉和擴(kuò)散模型生成的圖像:
生成對(duì)抗網(wǎng)絡(luò)(GAN)表面具有清晰可見的偽影
· 面部失真:Deepfakes和生成對(duì)抗網(wǎng)絡(luò)(GAN)生成的人臉通常在面部整體上的光照不一致,還可以在細(xì)節(jié)和邊緣所在的位置找到失真的痕跡,例如發(fā)際線、眉毛、面部毛發(fā)、耳環(huán),尤其是眼鏡的邊框。
· 眼睛和嘴唇的動(dòng)作:在Deepfakes視頻中,需要特別注意面部的運(yùn)動(dòng)部分。其陰影是否一致? 眨眼看起來真實(shí)嗎?在人物說話時(shí),嘴巴和牙齒看起來自然嗎?
· 照明和反射:生成式模型試圖預(yù)測場景中的照明。當(dāng)然,并不是所有的預(yù)測都是正確的,所以如果仔細(xì)觀察,就會(huì)發(fā)現(xiàn)陰影和反射偶爾會(huì)出現(xiàn)故障。這些都是AI生成圖像的跡象。
· 比例:擴(kuò)散模型生成的圖像通常有錯(cuò)誤的比例,例如手臂、腳、前臂等部位的長度錯(cuò)誤。乍一看,這些錯(cuò)誤可能并不明顯,但通過仔細(xì)觀察,很快就會(huì)發(fā)現(xiàn)是AI生成的圖像。
· 詳細(xì)對(duì)象:當(dāng)前的生成模型在合成性和詳細(xì)對(duì)象方面尤其糟糕。例如手部、建筑以及多個(gè)組成部分構(gòu)成的物體。這些圖像的背景通常會(huì)包含一些明顯的錯(cuò)誤。
· 來源:當(dāng)然,檢測Deepfakes和AI生成的圖像的重要方法之一是驗(yàn)證它們的來源。在谷歌或必應(yīng)上進(jìn)行反向圖片搜索,查看這張照片是否在社交媒體以外的地方出現(xiàn)過。查看是否有信譽(yù)良好的媒體報(bào)道了這些事件。如果是與朋友或家人有關(guān)的比較私密的圖像,在相信這一事實(shí)之前需要和他們核實(shí)。
人們需要面對(duì)生成式AI快速發(fā)展的這一現(xiàn)實(shí),而開發(fā)人員則需要更加勤奮努力,并為應(yīng)對(duì)其帶來的挑戰(zhàn)做好準(zhǔn)備。
(免責(zé)聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準(zhǔn)確性及可靠性,但不保證有關(guān)資料的準(zhǔn)確性及可靠性,讀者在使用前請(qǐng)進(jìn)一步核實(shí),并對(duì)任何自主決定的行為負(fù)責(zé)。本網(wǎng)站對(duì)有關(guān)資料所引致的錯(cuò)誤、不確或遺漏,概不負(fù)任何法律責(zé)任。
任何單位或個(gè)人認(rèn)為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識(shí)產(chǎn)權(quán)或存在不實(shí)內(nèi)容時(shí),應(yīng)及時(shí)向本網(wǎng)站提出書面權(quán)利通知或不實(shí)情況說明,并提供身份證明、權(quán)屬證明及詳細(xì)侵權(quán)或不實(shí)情況證明。本網(wǎng)站在收到上述法律文件后,將會(huì)依法盡快聯(lián)系相關(guān)文章源頭核實(shí),溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )