AI、大數(shù)據(jù)等新技術應用到安全領域之后,給安全帶來了新的思路,比如主動安全、零信任安全等等,但同時這些技術也會被攻擊者所利用。IBM Security全球副總裁Bob Kalka在本屆互聯(lián)網(wǎng)安全大會(ISC 2020)中,向我們介紹了在即將到來的智能時代,要通過何種思路來應對未來智能安全環(huán)境中新攻擊手段與態(tài)勢。
Bob Kalka 是IBM Security的全球副總裁,負責管理IBM Security全球的技術人員。在其31年的職業(yè)生涯中,有26年是在幫助IBM發(fā)展安全業(yè)務。本文為Bob Kalka的觀點。
智能安全的信任和透明
智能安全是一個非常好的概念,它引申了關于AI在安全領域的討論。在IBM,我們采用的是信任和透明原則。AI、以及其他新技術的開發(fā)和部署,都要遵守這樣的原則。而且我們鼓勵所有技術公司,都應采用類似的原則。
信任和透明原則有三個核心:
一、AI的目的是增強,而不是取代人類的智慧。
首先,我們更傾向于把AI說成增強智能,因為如果稱之為人工智能的話,人們會認為機器人將會取代一些職業(yè)。在這一領域,IBM以Watson等為代表的AI研究,已經(jīng)有數(shù)十年的歷史了。但我們并沒有發(fā)現(xiàn)一些職業(yè)已經(jīng)被取代,AI只是幫助人們更好的完成自己的工作。
其次,數(shù)據(jù)和洞察屬于其創(chuàng)造者。客戶不一定要放棄對自己數(shù)據(jù)的所有權。顯然,在這一點中,隱私尤其重要。
第三,包括AI系統(tǒng)在內(nèi)的新技術,必須透明且能被人理解。IBM采用了信任和透明的原則,這對于先進的技術研發(fā)非常重要。
人工智能 能力越大,責任越大
如何把AI應用在正確的地方,在這里又有三個關鍵點:
第一關鍵點:AI發(fā)展的好,隨之而來的就是責任。
第二關鍵點:我們應該把AI應用在合理的地方,比如網(wǎng)絡安全中威脅情報的獲取、分析和應用。威脅情報的來源可能有數(shù)百萬個,而只有約20%的來源是在網(wǎng)上有收錄和可搜索的。
如何才能進行有效的威脅調(diào)查?今天大多數(shù)人的做法,是對這20%的數(shù)據(jù)進行手動搜索。大約在四年半之前 IBM就開始訓練Watson來獲取、分析和應用威脅情報?,F(xiàn)在我們存儲的威脅來源數(shù)量已經(jīng)超過了一百萬。
有時候IBM的客戶四五秒就可以查到想要的來源,Watson會告訴你:
“我認為這個應當是需要引起你注意的威脅:
準確率大約為……、
這是我導出這一結(jié)論所用的XX個來源、
如果想查看詳情,可以點擊這里……”
這種能力,Watson的網(wǎng)絡安全能力是和IBM的 QRadar平臺互通的,這完全不同于IBM的競爭對手。有一個客戶說,通過應用AI,他們的威脅調(diào)查快了60倍。
AI攻擊 全新的威脅形態(tài)
很顯然,攻擊者群體也想利用AI,我們必須專注于保護AI模型本身。
這里也有三點:
第一點:我們已經(jīng)看到攻擊者在利用AI進行攻擊。AI讓他們獲得了巨大的回報,所以我們必須采取預防措施。
第二點:攻擊者會攻擊AI模型,他們會一點一點的、不斷的把錯誤信息注入到模型當中,最終模型可能會出錯而給出錯誤的答案。不過這些技巧都被IBM的平臺一覽無余,能夠完全知曉。
第三點:對模型本身的盜取。顯然,如果你偷了別人的模型,你可以用他的AI。因此,IBM花費了大量的時間和精力,來確保這些問題或任何問題都不會發(fā)生。
12下一頁>(免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。
任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。 )