黑客如何使用AI和ML來瞄準企業(yè)

網(wǎng)絡安全得益于AI和ML的進步。今天的安全團隊被關(guān)于潛在可疑活動的數(shù)據(jù)所淹沒,常常大海撈針。人工智能通過網(wǎng)絡流量、惡意軟件指標和用戶行為趨勢中的模式識別,幫助安全團隊在這些數(shù)據(jù)中發(fā)現(xiàn)真正的威脅。而黑客常常利用人工智能和機器學習方面來對付企業(yè)。例如輕松訪問云環(huán)境,使得開始使用AI并構(gòu)建強大、有能力的學習模型變得簡單。

讓我們看看黑客如何使用人工智能和機器學習來瞄準企業(yè),以及防止以人工智能為重點的網(wǎng)絡攻擊的方法。

黑客使用AI對抗安全團隊的3種方式1.在基于人工智能的工具測試惡意軟件是否成功黑客能以多種方式使用ML。第一種方法是通過構(gòu)建他們自己的機器學習環(huán)境,并對自己的惡意軟件和攻擊實踐進行建模,以確定安全團隊尋找的事件和行為的類型。例如,一個復雜的惡意軟件可能會修改本地系統(tǒng)庫和組件,在內(nèi)存中運行進程,并與黑客控制基礎(chǔ)設施擁有的一個或多個域通信。所有這些活動結(jié)合在一起創(chuàng)建了一個稱為戰(zhàn)術(shù)、技術(shù)和程序(TTP)的配置文件。機器學習模型可以觀察TTP,并使用它們來構(gòu)建檢測能力。通過觀察和預測安全團隊如何檢測TTP,黑客可以巧妙而頻繁地修改指標和行為,領(lǐng)先于依賴基于人工智能的工具檢測攻擊的安全團隊。2.用不準確的數(shù)據(jù)破壞AI模型黑客還利用機器學習和人工智能,用不準確的數(shù)據(jù)破壞人工智能模型,從而破壞環(huán)境。機器學習和人工智能模型依靠正確標記的數(shù)據(jù)樣本,來構(gòu)建準確和可重復的檢測配置文件。通過引入看起來類似于惡意軟件的良性文件或創(chuàng)建被證明是誤報的行為模式,黑客可以誘騙AI模型,使其相信攻擊行為不是惡意的,還可以通過引入AI訓練標記為安全的惡意文件來毒化AI模型。3.繪制現(xiàn)有AI模型黑客積極尋求繪制網(wǎng)絡安全供應商和運營團隊使用的現(xiàn)有和正在開發(fā)的AI模型。通過了解人工智能模型的功能及其作用,黑客可以在其周期內(nèi)積極干擾機器學習操作和模型。這可以使黑客通過欺騙系統(tǒng)來影響模型,使系統(tǒng)有利于黑客。它還可以讓黑客通過巧妙地修改數(shù)據(jù)來避開基于已識別模式的檢測,從而完全避開已知模型。如何防御以人工智能為中心的攻擊防御以人工智能為重點的攻擊是極其困難的。安全團隊必須確保與學習模型和模式開發(fā)中使用的數(shù)據(jù)相關(guān)聯(lián)的標簽是準確的。通過確保數(shù)據(jù)具有準確的標簽標識符,用于訓練模型的數(shù)據(jù)集可能會變得更小,這對人工智能的效率沒有幫助。對于那些構(gòu)建AI安全檢測模型的人來說,在建模時引入對抗技術(shù)和策略可以幫助將模式識別與野外看到的策略結(jié)合起來。約翰霍普金斯大學的研究人員開發(fā)了木馬軟件框架,以幫助生成木馬和其他惡意軟件模式的人工智能模型。麻省理工學院(MIT)的研究人員發(fā)布了一款用于自然語言模式的工具TextFooler,該工具可能有助于構(gòu)建更具彈性的人工智能模型,以檢測銀行欺詐等問題。隨著人工智能的重要性日益增長,黑客將尋求通過自己的研究來超越安全團隊的努力。對于安全團隊來說,及時了解黑客的攻擊策略以防御他們是至關(guān)重要的。

極客網(wǎng)企業(yè)會員

免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關(guān)資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關(guān)資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權(quán)或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權(quán)利通知或不實情況說明,并提供身份證明、權(quán)屬證明及詳細侵權(quán)或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關(guān)文章源頭核實,溝通刪除相關(guān)內(nèi)容或斷開相關(guān)鏈接。

2022-06-17
黑客如何使用AI和ML來瞄準企業(yè)
黑客還利用機器學習和人工智能,用不準確的數(shù)據(jù)破壞人工智能模型,從而破壞環(huán)境。機器學習和人工智能模型依靠正確標記的數(shù)據(jù)樣本,來構(gòu)建準確和可重復的檢測配置文件。通過引入看起來類似于惡意軟件的良性文件或創(chuàng)建被證明是誤報的行為模式,黑客可以誘騙AI模型,使其相信攻擊行為不是惡意的,還可以通過引入AI訓練標記為安全的惡意文件來毒化AI模型。

長按掃碼 閱讀全文