阿里安全新研究:給圖片打“馬賽克”就能騙過智能視覺系統(tǒng)

不久前,某知名品牌汽車被曝其自動駕駛系統(tǒng)無法識別白色貨車箱體這樣類似于“一堵墻”的障礙物。在自動駕駛中,行人、車輛被漏檢或者未能及時被檢測到,都可能導(dǎo)致交通事故的產(chǎn)生。此外,安防漏檢危險人物與物品也可能導(dǎo)致安全隱患。這些風險都提示,AI視覺的安全性值得重視。

在研究AI視覺穩(wěn)定性的過程中,阿里安全圖靈實驗室的研究人員札奇發(fā)現(xiàn),AI視覺還有一個盲區(qū):利用算法自動鑒別圖片關(guān)鍵信息,并巧妙刪除,就像給圖片“打碼”一樣,AI視覺系統(tǒng)就會無法識別該圖片。最近,這項研究成果被AI頂會ICCV 2021收錄。

札奇的研究源于逛商場看到樂高玩具迸發(fā)的靈感。當時,她有一個疑問:“人眼如何識別‘馬賽克’式樣的玩具?還有早期的超級馬里奧,雖然只是由幾個簡單像素組成,人卻可以正確識別這種抽象的表達。AI模型面對‘馬賽克’式的圖片,能正確識別嗎?”

札奇進行了驗證。她發(fā)現(xiàn),傳統(tǒng)對圖片“加工”以騙過AI的方法是給圖片加上“噪音”,相當于在當前圖片上針對模型"亂涂亂畫",讓AI無法識別,但原圖片本身的關(guān)鍵信息沒有丟失,只要用“橡皮擦”擦一擦,AI依然能識別。如果反向操作,刪除圖片的關(guān)鍵信息,就像打“馬賽克”,圖片的關(guān)鍵信息已經(jīng)丟失,那么AI無論如何也難以識別。這意味著,針對“打碼攻擊”,難以有防御措施。

如下圖所示,給貓咪圖片加上噪聲,去除噪聲后,AI模型依然能認出這是一只貓咪。相反,基于信息丟失的對抗攻擊在去噪聲的操作下基本沒什么變化,AI視覺模型“識別無能”。 

圖片1.jpg 圖說:傳統(tǒng)加噪音(上)與“打碼”刪信息(下)對比,“打碼”攻擊“無法還原”。

專注對AI的對抗樣本和模型安全性進行研究的阿里安全高級算法專家越豐提醒,除了AI視覺場景,真實場景中也可能存在這種對抗攻擊,例如針對某知名PS軟件,只要提供具備對抗攻擊性質(zhì)的JPEG量化表,就能產(chǎn)出有“攻擊性”的圖片。

此外,在實際場景中,圖片信息丟失是常見現(xiàn)象,例如用戶將圖片以JPEG形式上傳到網(wǎng)絡(luò),就有一定的信息丟失,可能不經(jīng)意間就會制造一個“對抗樣本”。越豐認為,這對當前內(nèi)容安全場景的AI識別而言,都是不小的挑戰(zhàn)。

“比如有人將涉黃賭毒圖片以損失部分信息的形式上傳到網(wǎng)絡(luò),人眼依然能領(lǐng)會含義,但AI卻沒能正確識別,這對構(gòu)建清朗、健康網(wǎng)絡(luò)環(huán)境而言,就是一種對抗?!痹截S舉例道,AI安全行業(yè)應(yīng)該警惕這種類型的對抗。

當然,“致盲AI”不是研究人員的目標,研究人員最終還是想發(fā)現(xiàn)AI模型的脆弱性,進一步提升AI安全?!霸贏I安全前沿技術(shù)上進行探索,一是為了讓AI更安全,二是為了讓AI助力安全,三是為解決具體社會問題尋找提效的新途徑?!卑⒗锇踩珗D靈實驗室負責人薛暉提醒,相比“事后彌補”,安全應(yīng)前置,從源頭守衛(wèi)安全,對前沿技術(shù)進行研究布局,以科技創(chuàng)新造就最好的網(wǎng)絡(luò)安全。

(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應(yīng)及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。 )

贊助商
2021-08-20
阿里安全新研究:給圖片打“馬賽克”就能騙過智能視覺系統(tǒng)
不久前,某知名品牌汽車被曝其自動駕駛系統(tǒng)無法識別白色貨車箱體這樣類似于“一堵墻”的障礙物。在自動駕駛中,行人、車輛被漏檢或者未能及時被檢測到,都可能導(dǎo)致交通事故的產(chǎn)生。

長按掃碼 閱讀全文