黑客如何使用AI和ML來瞄準企業(yè)
網(wǎng)絡安全得益于AI和ML的進步。今天的安全團隊被關(guān)于潛在可疑活動的數(shù)據(jù)所淹沒,常常大海撈針。人工智能通過網(wǎng)絡流量、惡意軟件指標和用戶行為趨勢中的模式識別,幫助安全團隊在這些數(shù)據(jù)中發(fā)現(xiàn)真正的威脅。
而黑客常常利用人工智能和機器學習方面來對付企業(yè)。例如輕松訪問云環(huán)境,使得開始使用AI并構(gòu)建強大、有能力的學習模型變得簡單。
讓我們看看黑客如何使用人工智能和機器學習來瞄準企業(yè),以及防止以人工智能為重點的網(wǎng)絡攻擊的方法。
黑客使用AI對抗安全團隊的3種方式
1.在基于人工智能的工具測試惡意軟件是否成功
黑客能以多種方式使用ML。第一種方法是通過構(gòu)建他們自己的機器學習環(huán)境,并對自己的惡意軟件和攻擊實踐進行建模,以確定安全團隊尋找的事件和行為的類型。
例如,一個復雜的惡意軟件可能會修改本地系統(tǒng)庫和組件,在內(nèi)存中運行進程,并與黑客控制基礎設施擁有的一個或多個域通信。所有這些活動結(jié)合在一起創(chuàng)建了一個稱為戰(zhàn)術(shù)、技術(shù)和程序(TTP)的配置文件。機器學習模型可以觀察TTP,并使用它們來構(gòu)建檢測能力。
通過觀察和預測安全團隊如何檢測TTP,黑客可以巧妙而頻繁地修改指標和行為,領(lǐng)先于依賴基于人工智能的工具檢測攻擊的安全團隊。
2.用不準確的數(shù)據(jù)破壞AI模型
黑客還利用機器學習和人工智能,用不準確的數(shù)據(jù)破壞人工智能模型,從而破壞環(huán)境。機器學習和人工智能模型依靠正確標記的數(shù)據(jù)樣本,來構(gòu)建準確和可重復的檢測配置文件。通過引入看起來類似于惡意軟件的良性文件或創(chuàng)建被證明是誤報的行為模式,黑客可以誘騙AI模型,使其相信攻擊行為不是惡意的,還可以通過引入AI訓練標記為安全的惡意文件來毒化AI模型。
3.繪制現(xiàn)有AI模型
黑客積極尋求繪制網(wǎng)絡安全供應商和運營團隊使用的現(xiàn)有和正在開發(fā)的AI模型。通過了解人工智能模型的功能及其作用,黑客可以在其周期內(nèi)積極干擾機器學習操作和模型。這可以使黑客通過欺騙系統(tǒng)來影響模型,使系統(tǒng)有利于黑客。它還可以讓黑客通過巧妙地修改數(shù)據(jù)來避開基于已識別模式的檢測,從而完全避開已知模型。
如何防御以人工智能為中心的攻擊
防御以人工智能為重點的攻擊是極其困難的。安全團隊必須確保與學習模型和模式開發(fā)中使用的數(shù)據(jù)相關(guān)聯(lián)的標簽是準確的。通過確保數(shù)據(jù)具有準確的標簽標識符,用于訓練模型的數(shù)據(jù)集可能會變得更小,這對人工智能的效率沒有幫助。
對于那些構(gòu)建AI安全檢測模型的人來說,在建模時引入對抗技術(shù)和策略可以幫助將模式識別與野外看到的策略結(jié)合起來。約翰霍普金斯大學的研究人員開發(fā)了木馬軟件框架,以幫助生成木馬和其他惡意軟件模式的人工智能模型。麻省理工學院(MIT)的研究人員發(fā)布了一款用于自然語言模式的工具TextFooler,該工具可能有助于構(gòu)建更具彈性的人工智能模型,以檢測銀行欺詐等問題。
隨著人工智能的重要性日益增長,黑客將尋求通過自己的研究來超越安全團隊的努力。對于安全團隊來說,及時了解黑客的攻擊策略以防御他們是至關(guān)重要的。