AI可一鍵生成上萬種JavaScript變體,88%能規避檢測
網絡安全研究人員發現,借助大型語言模型(LLMs),可以大規模生成新型惡意的JavaScript代碼變體,這些變體將更難被安全防護設備檢測。
Palo Alto Networks旗下的Unit 42團隊指出:“盡管LLMs難以獨立創建惡意軟件,但犯罪分子能利用它們重寫或混淆現有惡意軟件,從而加大檢測難度。罪分子可通過提示LLMs執行更自然的轉換,使這種惡意軟件更難被發現。”
長期來看,通過大量轉換,這種方法可能降低惡意軟件檢測系統的性能,甚至使其誤判惡意代碼為良性。盡管LLM提供商不斷加強安全防護,防止其產生不良輸出,但不法分子已開始利用惡意AIGC工具如WormGPT,自動化設計高針對性的網絡釣魚郵件,甚至創造新的惡意軟件。
早在2024年10月,OpenAI就披露已封鎖20多起企圖利用其平臺進行非法活動的操作和欺詐網絡。
Unit 42表示,他們利用LLM反復重寫現有惡意軟件樣本,目的是規避機器學習(ML)模型的檢測,例如Innocent Until Proven Guilty(IUPG)或PhishingJS,從而成功創造了10000種新JavaScript變體,且功能不變。
這種對抗性機器學習技術通過變量重命名、字符串拆分、垃圾代碼插入等方法轉換惡意軟件,每次輸入系統時都進行變換。
“最終產生的新惡意JavaScript變體,行為與原腳本相同,但惡意評分大幅降低,”該公司表示,并補充說,其貪婪算法能將自身惡意軟件分類模型的判斷,從惡意翻轉為良性的概率高達88%。
更糟糕的是,這些重寫的JavaScript代碼在上傳至VirusTotal平臺時,也成功逃避了其他惡意軟件分析設備的檢測。LLM相關混淆技術的另一優勢在于,其重寫效果比obfuscator.io等庫更自然,后者因改變源代碼的方式而更容易被檢測和識別。
Unit 42指出:“借助生成式人工智能,新惡意代碼變體的規模可能會大幅增加。然而,我們也可利用相同策略重寫惡意代碼,以幫助生成訓練數據,提高ML模型的魯棒性。”
這一發現正值北卡羅來納州立大學一組學者設計出名為TPUXtract的側信道攻擊,該攻擊針對Google Edge張量處理單元(TPU)執行模型竊取攻擊,準確率高達99.91%,可能被用于知識產權盜竊或后續網絡攻擊。
研究人員表示:“將展示一種超參數竊取攻擊,能提取所有層配置,這是首次全面攻擊能提取以前未見過的模型。”
本質上,是這種黑匣子攻擊捕獲了TPU在執行神經網絡推理時發出的電磁信號,并利用這些信號推斷模型超參數。但這種方法依賴于攻擊者對目標設備的物理訪問權限,以及昂貴的探測設備。
參考來源:https://thehackernews.com/2024/12/ai-could-generate-10000-malware.html