幾年前的一個愚人節(jié),我們和大家聊過AI技術被作為詐騙工具的情況。很不幸,當時討論的一些苗頭,現(xiàn)在都成了電詐犯罪中屢見不鮮的手段。
更可氣的是,隨著AI技術與應用本身的發(fā)展,犯罪分子的AI手段不減反增。一些“新型AI”,也在這幫玩意的努力下加入了坑人的隊伍。
愚人節(jié)又到了,感覺咱們有必要來聊聊更新?lián)Q代的“AI for bad”。
提高警惕,避免上當,不做“愚人”。
坑人用的AI,也在更新?lián)Q代
此前我們討論AI作為詐騙工具時,提出應用到的技術主要有兩種:TTS語音合成與NLP自然語言處理。
前者的作用是讓犯罪分子合成假的音頻。在2019年,《華爾街日報》報道了一名詐騙犯用AI語音合成來冒充老板,讓一家分公司的總經理給他打了22萬歐元。這類詐騙現(xiàn)在已經屢見不鮮,而且最初TTS需要大量被模仿者的語料,門檻比較高,現(xiàn)在很多開放的TTS接口,可以只用10句話左右的語料來合成語音線,甚至能模仿方言,已經有點防不勝防的意思。
而NLP技術的應用,主要是智能電話外呼。我們今天接到的很多客服、推銷電話都是AI打的,其實詐騙電話也是。不久前,江蘇警方打掉了一個詐騙團伙,他們是利用AI智能外呼來撥打詐騙電話,數量達到了驚人的1700多萬個。AI打詐騙電話雖然成功率不高,也不會像真騙子一樣循循善誘,威逼恫嚇,但勝在效率高規(guī)模大,可以被犯罪分子用來篩選目標或者作為引流。
可以發(fā)現(xiàn),這些技術主要以語音方面為主。但在當年討論AI詐騙手段時,我們就說騙子未來一定會向視覺方向發(fā)展,畢竟“眼見為實”,如果能用AI技術來進行圖像甚至視頻的造假,那么犯罪份子的手段將更加多樣,方式更加隱蔽,而且AI技術本身也一定要向機器視覺與多模態(tài)方向發(fā)展。騙子和AI技術,某種程度上是供需能夠匹配的。
現(xiàn)在,它來了!視覺系AI詐騙,帶著各種各樣的惡意走來了!
暫停總結一下,AI坑人的第一階段主要是語音,方式主要是:第一,合成親人、同事、老板的假聲音進行詐騙。第二,用AI外呼系統(tǒng)撥打詐騙電話。最后還有個比較小眾的,用AI來模仿筆跡,但因為咱們國家數字化程度比較高,簽支票之類的不多,這種詐騙方式也不顯著。
而AI坑人的第二階段,就開始圍繞視覺做文章,主要方式是AI制作假的圖片與視頻,主要技術是廣受討論的Deepfake和AIGC。
驚掉歪果仁下巴的新型AI騙局
2月初,敘利亞土耳其發(fā)生了強烈地震,引發(fā)全球關注。在震后的救災工作中,AI技術發(fā)揮了非常關鍵的作用,比如大量應用AI+遙感,有效識別了災情,提升了救災效率,可以說用AI點亮了人類的互助之光。
但就有那么一些人,好日子不得好過,非要出來丟人現(xiàn)眼。同樣是在這場地震后,全球社交媒體上各種AI詐捐騙局層出不窮,讓各路歐美媒體感受到了來自AI技術的小小震撼。
比如最著名的是,一個騙子在推特上反復分享呼救信息,并附上了一名消防員拯救孩子的照片,以及自己的加密貨幣錢包鏈接,很多不了解真實情況的歪果群眾,心碎之余馬上打錢,但也有眼尖者發(fā)現(xiàn),這個圖片怎么一股AIGC的味道?
后來在媒體并不復雜的小調查后,證明這張以及大量其他土敘地震期間的求救、呼吁捐款所使用的現(xiàn)場圖片,都是用AIGC生成的。AIGC產量大,擬真度高,還沒有原圖作為證據,偽裝性更強,配合災難之后人們焦慮急切的心情,很容易成功實現(xiàn)詐騙。
另一種在土敘地震后涌現(xiàn)的詐騙形式,是在TikTok等平臺上發(fā)布小視頻,聲稱自己就在受災區(qū),呼吁打賞和捐款。但這些視頻里的背景、聲音甚至人臉,都有可能是AI合成的。
這件事情由于跟國際熱點息息相關,引發(fā)了廣泛關注和討論,但其實在這場鬧劇之下,用AI+視覺技術作惡已經屢見不鮮。
騙子們已經升級了,真正做到了眼前所見,全是AI。
當然這里要提一下的是,AI技術作為詐騙手段,目前還不是主流,因為這還是有技術門檻的,犯罪分子顯然沒那么高的整體文化素養(yǎng),但它效率更高,隱蔽性更強,超出了以往我們對電詐與其他犯罪的認知,更加值得注意。
AIGC,已經投身殺豬盤
視覺系AI的新型詐騙形式,早已經來到了我們身邊,其中最普遍的一種方式,就是將AIGC圖片和殺豬盤進行結合。
殺豬盤這種臭名昭著的電詐形式,基本思路是電詐分子偽裝出一個人設,再通過網戀等方式獲取被騙人信任。這種模式里一個關鍵,就是如何能夠確保不被拆穿,畢竟雙方在交流過程中,肯定要發(fā)照片、開視頻。
原本殺豬盤的應對辦法,是到處盜取社交媒體里分享的照片,然后一旦要視頻就找理由推脫,但盜取的圖片畢竟有限,而且都是“成片”,很難滿足受騙者實時分享照片的要求。
最近爆火的AIGC,尤其是AI生成圖片,給這幫玩意提供了巨大便利?,F(xiàn)在的AI生圖軟件,已經可以生成幾近真人,看不出瑕疵的圖片,加上可以接受指令進行穿搭、動作、場景設計,完全可以滿足殺豬盤對照片的需求。
你以為網戀的女神,第一時間分享給你在瑞士滑雪之后的素顏美照,殊不知那是摳腳大漢在東南亞某個地下室,剛剛讓AI生成的。
更有甚者,一些AIGC軟件可以生成擦邊,甚至明顯越界的圖片,乃至生成不怎么穿衣服的視頻。這就給詐騙分子的裸聊騙局增添了新的籌碼,動用真人進行裸聊騙局,難度大,門檻高,而直接讓AI來則堪稱無本萬利。一旦屏幕這頭被害人被拍下裸聊證據,往往就是萬劫不復的后果。
記得我看過貼吧上有個熱門帖,被害人分享裸聊受騙的全過程。他的描述非常痛苦煎熬,但他至少還是相信與之聊天的,是一個模樣他很中意的女孩子,甚至還隱約覺得她肯定也是迫不得已。但他不知道的是,那很可能是AI換臉甚至AI生成視頻。
被坑了還替AI惋惜,真的是哀其不幸,怒其不爭。
AI換臉/換裝,背后的猥瑣“產業(yè)鏈”
如果說,不法分子用AIGC是生成一個虛構的人來行騙。那么比之更可恨的,就是Deepfake,也就是AI換臉技術的濫用。如今,各大媒體平臺都一致性封殺了AI換臉等有爭議的內容,但這并不妨礙這種技術依舊在暗地里大行其道,甚至肆意泛濫。
不久之前,有個所謂的“網紅”,用AI換臉技術合成了女明星和他演吻戲的視頻,隨后惹怒了粉絲,甚至遭遇了實體宇宙對線。對此我想說,您還真的是有點活該呢。
還有一位女士,在社交媒體上分享的照片,被不法分子用AI軟件進行“一鍵脫衣”并在網上傳播,這一事件也引起了廣泛關注。
這類侵犯他人肖像權、隱私權、名譽權的行為,都是利用Deepfake來完成。這種行為危害極大,同時也極盡道德敗壞之能事,往往會造成《保你平安》中那樣,造謠一張嘴,辟謠跑斷腿的無奈。
同時,AI換臉技術,也開始被應用到了詐騙活動中。比如此前就有人用AI換臉偽裝成明星,然后進行直播騙錢粉絲打賞、刷禮物。最近,我們可以看到很多明星工作室都在對這種行為進行法律追責。
除了AI換臉明星進行詐騙之外,還有騙子利用AI換臉裝成熟人進行詐騙。由于換臉之后直接視頻通話可信度很高,對于不了解AI技術的老年人來說,可謂是防不勝防。
AI換臉與AI脫衣有多可怕,我們隨便想想就能知道。但很多人會覺得,AI換臉應該是挺難的一種技術吧,好像跟影視后期差不多,不是普通人能做到的吧?
其實不然,AI換臉已經有了非常成熟的“產業(yè)鏈”,稍加用心很快就能學會,甚至得到源源不斷的素材支持。一般來說,別有用心之徒想要開始AI換臉,要解決這么幾個問題。
首先是技術從哪來?
在GitHub等開源社區(qū)上,就有開源使用的AI換臉軟件。其中最知名的是Deepfacelive、Deepfacelab兩種。很多相關的技術社區(qū)、論壇、貼吧,有大量教程可以進行傻瓜式學習,甚至還有中文版AI換臉軟件進行分發(fā)。如果還學不會,二手交易平臺上也有大量教程與教學售賣,價格非常低廉。
那么,AI換臉用的圖像和視頻素材從哪來?
這要分成兩個部分。首先是普通人的圖像與視頻素材,最常見的泄露渠道就是社交媒體,會有不法之徒專門收集社交媒體資料,然后進行打包售賣。另一種盜取視頻素材的方式,是以某種名義進行視頻通話,然后錄制,這種往往以公檢法部門、銀行、防疫等理由要求進行視頻通話。由于不涉及錢財往來,被騙者往往不會產生警覺,然后騙子會再用錄制的視頻進行AI換臉,騙取被害者家人、朋友的錢財,或者用來辦理網貸。
還有一種就是明星的素材。上面提到那個惡心人的網紅,可能就是用了所謂的“DFL仙丹”進行女明星的AI換臉。所謂“仙丹”,是指利用明星的視頻、照片素材,進行符合DFL等軟件需求的預訓練,最終得到的模型可以免訓練,免修圖,直接用來換臉替代。一個明星的換臉素材庫,往往只需要幾十元到幾百元不等。
現(xiàn)在如果在二手交易平臺搜索“AI仙丹”、“DLF仙丹”等字樣,會發(fā)現(xiàn)大量正在售賣的數據模型。而購買者想來只有兩種,一種是滿足自己的猥瑣意淫,甚至炮制明星的所謂黑料;另一種就是騙子想要假借明星進行網絡詐騙。
無論如何,未經允許對一個人的肖像權、隱私權進行移花接木,都是無法接受的。
怎么防范新型的坑人AI?
目前階段,新一代的坑人AI,有兩種主流手法:AIGC和AI換臉??梢灶A想到的是,在生成式AI愈發(fā)強大的今天,伴隨著AI生成視頻、生成數字人的能力提升,這種坑人方式還將升級。
不久的未來,可能都不需要換臉+真人。騙子可以直接弄個AI跟你聊,甚至弄個假明星跟你聊天,搭配上聲音合成與強大的對話能力。騙子即將做到全自動、全流程、高度智能化的AI詐騙。
到底怎么才能防范與制止新型的AI坑人,保護大眾的財產權與隱私權呢?可能至少要從三個方面進行入手:
1.技術防范。在今天,反詐AI也已經發(fā)展壯大。各個平臺和有關部門都在部署用AI反詐的技術能力,可謂是用魔法打敗魔法。但反詐AI的主要邏輯是進行問題信號的識別,繼而進行AI智能外呼的主動干預,估計不久之后,我們可能會看到詐騙AI和反詐AI聊上了的奇特新聞。但是面對新型的AI騙局,反詐AI技術還需要進一步升級。比如目前也有轉變識別AIGC內容的軟件,但受害者應該很少想到主動去識別一下,能想到估計也就不上當了。面向視覺系的AI詐騙,反詐技術還有待提升。
2.平臺監(jiān)管。像AI換臉這種技術,往往是需要一個技術鏈條來支持的。如果我們能讓別有用心的人無法獲得軟件、數據上的支持,那么AI換臉自然也就無法泛濫。警惕不法分子用AI搞事情,需要幾種平臺同時下手。首先是AIGC平臺要控制內容質量,不能生成擦邊球或者明顯有不良意圖的圖片與視頻。其次是軟件分發(fā)平臺與論壇、社區(qū),要管控AI換臉、AI脫衣等軟件的流通。二手交易和本地生活平臺,要禁止分享和售賣AI換臉工具、明星數據仙丹等內容。
3.防范意識。讓大家提高反詐意識已經是老生常談了。但還是想要說一下,咱不是說受害者有罪論。但做一些事,真的有必要嗎?很多人出于出于好奇或者其他小心思,想要弄一個明星的換臉視頻,一張熟人的換臉照片,這往往就是惡行的開始,同時也給更大的犯罪提供了土壤。GHS的心理,侮辱他人的心理,盲目追星的心理,如果都淡一點,事情就會好一點。
總之,AI不坑人,但人類會用一切辦法坑人。
行走人間,小心為上。
免責聲明:此文內容為第三方自媒體作者發(fā)布的觀察或評論性文章,所有文字和圖片版權歸作者所有,且僅代表作者個人觀點,與極客網無關。文章僅供讀者參考,并請自行核實相關內容。投訴郵箱:editor@fromgeek.com。
- 蜜度索驥:以跨模態(tài)檢索技術助力“企宣”向上生長
- 技術領先的美國為何在六代機研發(fā)上落后了?制造業(yè)基礎薄弱是主因
- 國產手機玩田忌賽馬,舊款旗艦降價超千元,不敢與蘋果硬拼
- 在人群里,看見「鯤鵬開發(fā)者」
- 游戲體驗天花板,一加 Ace 5 系列售價 2299 元起
- 為創(chuàng)意和管理提效,新廣告投放(3.0)驅動消費品商家高效增長
- 榮耀Magic7系列全面升級大王影像,首發(fā)AI超級長焦拍遠更清晰
- 2024過去了,留下十個科技記憶
- 年貨節(jié)如何大爆單?別錯過巨量千川這三波紅利
- 中國六代機首飛成功,還是兩款,宣告全球戰(zhàn)機技術將由中國引領
- 美國無人機禁令升級?當地科學家率先“喊疼”:我們離不開大疆
免責聲明:本網站內容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網站出現(xiàn)的信息,均僅供參考。本網站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網站中的網頁或鏈接內容可能涉嫌侵犯其知識產權或存在不實內容時,應及時向本網站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內容或斷開相關鏈接。