生成人工智能聊天機器人和大型語言模型增強網絡安全的六種方法
從風險的角度來看,生成式人工智能聊天機器人和大型語言模型可能是一把雙刃劍,但如果使用得當,它們也可以在關鍵方面改善網絡安全。
OpenAI公司開發的ChatGPT的迅速崛起是今年最大的新聞之一,生成式AI聊天機器人和大型語言模型對網絡安全的潛在影響是討論的關鍵領域。關于這些新技術可能帶來的安全風險有很多討論,從擔心與高級自學習算法共享敏感業務信息到惡意行為者使用它們來顯著增強攻擊。
一些國家、各州和企業以數據安全、保護和隱私為由,下令禁止使用ChatGPT等生成式人工智能技術。顯然,生成式人工智能聊天機器人和大型大型語言模型帶來的安全風險是相當大的。然而,生成式人工智能聊天機器人可以通過多種方式增強企業的網絡安全,為安全團隊打擊網絡犯罪活動提供急需的助力。
以下是生成式人工智能聊天機器人和大型語言模型提高安全性的6種方法。
漏洞掃描和過濾
根據云安全聯盟(CSA)一份探討大型語言模型網絡安全影響的報告,生成式人工智能模型可用于顯著增強安全漏洞的掃描和過濾。在論文中,云安全聯盟(CSA)證明了OpenAI的CodexAPI是針對C、c#、Java和JavaScript等編程語言的有效漏洞掃描器。“我們可以預見,大型語言模型,就像Codex家族中的那些一樣,將成為未來漏洞掃描器的標準組成部分,”論文寫道。例如,可以開發掃描器來檢測和標記各種語言中的不安全代碼模式,幫助開發人員在潛在的漏洞成為關鍵的安全風險之前解決它們。
至于過濾,生成式人工智能模型可以解釋并為威脅標識符添加有價值的場景,否則可能會被人類安全人員遺漏。例如,MITREATT&CK框架中的技術標識符TT1059.001可能會被報告,但對于一些網絡安全專業人員來說并不熟悉,因此需要進行簡要的解釋。ChatGPT可以準確地將代碼識別為MITREATT&CK標識符,并提供與之相關的具體問題的解釋,其中涉及使用惡意PowerShell腳本。它還詳細闡述了PowerShell的性質及其在網絡安全攻擊中的潛在用途,并提供了相關示例。
今年5月,OXSecurity宣布推出OX-gpt,這是一個ChatGPT集成,旨在幫助開發人員提供定制的代碼修復建議和剪切粘貼代碼修復,包括代碼如何被黑客利用,攻擊的可能影響以及對組織的潛在損害。
反轉附加組件,分析PE文件的api
DeepInstinct網絡智能工程經理MattFulmer表示,基于IDA和Ghidra等逆向工程框架,生成式人工智能/大型語言模型(LLM)技術可用于幫助構建規則和逆轉流行的附加組件。“如果你明確了自己的需求,并將其與MITRE的攻擊和攻擊策略進行比較,你就可以將結果離線,并更好地將其用作防御。”
llm還可以通過應用程序進行交流,分析可移植可執行文件(PE)的API,并告訴你它們的用途,他補充道。“這可以減少安全研究人員花在查看PE文件和分析其中API通信上的時間。”
威脅搜索查詢
根據CSA的說法,安全防御者可以通過利用ChatGPT和其他llm來創建威脅搜索查詢來提高效率并加快響應時間。通過為惡意軟件研究和檢測工具(如YARA)生成查詢,ChatGPT有助于快速識別和減輕潛在威脅,使防御者能夠專注于其網絡安全工作的關鍵方面。事實證明,在不斷發展的威脅環境中,這種能力對于保持穩健的安全態勢是無價的。可以根據特定需求和組織希望在其環境中檢測或監視的威脅來定制規則。
人工智能可以提高供應鏈的安全性
生成式人工智能模型可以通過識別供應商的潛在漏洞來解決供應鏈安全風險。今年4月,SecurityScorecard宣布推出一個新的安全評級平臺,通過與OpenAI的GPT-4系統和自然語言全球搜索集成來實現這一目標。據該公司稱,客戶可以詢問有關其業務生態系統的開放式問題,包括供應商的詳細信息,并迅速獲得答案,以推動風險管理決策。例如,“找到我的10個評級最低的供應商”或“顯示我的哪些關鍵供應商在過去一年中被入侵”——SecurityScorecard聲稱,這些問題將產生結果,使團隊能夠快速做出風險管理決策。
檢測攻擊中的生成AI文本
據CSA稱,大型語言模型不僅生成文本,而且還致力于檢測和水印人工智能生成的文本,這可能成為電子郵件保護軟件的常見功能。CSA表示,識別攻擊中人工智能生成的文本可以幫助檢測網絡釣魚郵件和多態代碼,并且可以假設llm可以輕松檢測非典型電子郵件地址發件人或其相應的域,同時能夠檢查文本中的底層鏈接是否指向已知的惡意網站。
安全代碼的生成和傳輸
像ChatGPT這樣的llm可以用來生成和傳輸安全代碼。CSA引用了一個網絡釣魚活動的例子,該活動成功地針對了公司內的幾名員工,可能暴露了他們的憑證。雖然知道哪些員工打開了網絡釣魚郵件,但尚不清楚他們是否無意中執行了旨在竊取他們憑證的惡意代碼。
為了調查這個問題,可以使用Microsoft365Defender高級搜索查詢來查找電子郵件收件人在收到已知惡意電子郵件后30分鐘內執行的最近10次登錄事件。該查詢有助于識別任何可能與受損憑據相關的可疑登錄活動。”
在這里,ChatGPT可以提供Microsoft365Defender搜索查詢,以檢查受感染的電子郵件帳戶的登錄嘗試,這有助于阻止攻擊者進入系統,并澄清用戶是否需要更改密碼。這是在網絡事件響應期間減少行動時間的一個很好的例子。
基于相同的示例,您可能會遇到相同的問題并找到Microsoft365Defender查找查詢,但是您的系統不使用KQL編程語言。可以進行編程語言風格轉換,而不是用您想要的語言搜索正確的示例。
他說,“這個例子說明了ChatGPT的底層Codex模型可以采用源代碼示例并用另一種編程語言生成示例。它還通過在其提供的答案和新創建背后的方法中添加關鍵細節,簡化了最終用戶的過程。”
根據CSA的說法,安全防御者可以通過利用ChatGPT和其他llm來創建威脅搜索查詢來提高效率并加快響應時間。通過為惡意軟件研究和檢測工具(如YARA)生成查詢,ChatGPT有助于快速識別和減輕潛在威脅,使防御者能夠專注于其網絡安全工作的關鍵方面。事實證明,在不斷發展的威脅環境中,這種能力對于保持穩健的安全態勢是無價的。可以根據特定需求和組織希望在其環境中檢測或監視的威脅來定制規則。
人工智能可以提高供應鏈的安全性
生成式人工智能模型可以通過識別供應商的潛在漏洞來解決供應鏈安全風險。今年4月,SecurityScorecard宣布推出一個新的安全評級平臺,通過與OpenAI的GPT-4系統和自然語言全球搜索集成來實現這一目標。據該公司稱,客戶可以詢問有關其業務生態系統的開放式問題,包括供應商的詳細信息,并迅速獲得答案,以推動風險管理決策。例如,“找到我的10個評級最低的供應商”或“顯示我的哪些關鍵供應商在過去一年中被入侵”——SecurityScorecard聲稱,這些問題將產生結果,使團隊能夠快速做出風險管理決策。
檢測攻擊中的生成AI文本
據CSA稱,大型語言模型不僅生成文本,而且還致力于檢測和水印人工智能生成的文本,這可能成為電子郵件保護軟件的常見功能。CSA表示,識別攻擊中人工智能生成的文本可以幫助檢測網絡釣魚郵件和多態代碼,并且可以假設llm可以輕松檢測非典型電子郵件地址發件人或其相應的域,同時能夠檢查文本中的底層鏈接是否指向已知的惡意網站。
安全代碼的生成和傳輸
像ChatGPT這樣的llm可以用來生成和傳輸安全代碼。CSA引用了一個網絡釣魚活動的例子,該活動成功地針對了公司內的幾名員工,可能暴露了他們的憑證。雖然知道哪些員工打開了網絡釣魚郵件,但尚不清楚他們是否無意中執行了旨在竊取他們憑證的惡意代碼。
為了調查這個問題,可以使用Microsoft365Defender高級搜索查詢來查找電子郵件收件人在收到已知惡意電子郵件后30分鐘內執行的最近10次登錄事件。該查詢有助于識別任何可能與受損憑據相關的可疑登錄活動。”
在這里,ChatGPT可以提供Microsoft365Defender搜索查詢,以檢查受感染的電子郵件帳戶的登錄嘗試,這有助于阻止攻擊者進入系統,并澄清用戶是否需要更改密碼。這是在網絡事件響應期間減少行動時間的一個很好的例子。
基于相同的示例,您可能會遇到相同的問題并找到Microsoft365Defender查找查詢,但是您的系統不使用KQL編程語言。您可以進行編程語言風格轉換,而不是用您想要的語言搜索正確的示例。
“這個例子說明了ChatGPT的底層Codex模型可以采用源代碼示例并用另一種編程語言生成示例。它還通過在其提供的答案和新創建背后的方法中添加關鍵細節,簡化了最終用戶的過程。”領導者必須確保生成式人工智能聊天機器人的安全使用
Gigamon首席戰略官ChaimMazal表示,與許多現代技術一樣,從風險的角度來看,人工智能和大型語言模型可能是一把雙刃劍,因此,領導者必須確保自己的團隊安全可靠地使用這些產品。“安全和法律團隊應該合作,為他們的組織找到最好的前進道路,在不損害知識產權或安全的情況下利用這些技術的能力。”
富爾默說,生成式人工智能是基于過時的結構化數據,所以只有在評估其在安全和防御方面的應用時,才能把它作為一個起點。例如,如果將其用于上述任何好處,則需要證明其輸出是合理的。把輸出放到線下,讓人把它做得更好、更準確、更可操作。”
隨著時間的推移,生成式人工智能聊天機器人/大型語言模型最終將自然地增強安全性和防御能力,但利用人工智能/大型語言模型來幫助而不是傷害網絡安全態勢,最終都將歸結為內部溝通和響應。到Mazal說。“生成式人工智能/大型語言模型可以成為讓利益相關者以更快、更有效的方式全面解決安全問題的一種手段。領導者必須溝通如何利用工具來支持組織目標,同時教育他們了解潛在的威脅。”
TovieAI公司的人工智能技術主管兼首席執行官JoshuaKaiser表示,人工智能聊天機器人也需要定期更新,以保持對威脅的有效防御,而人類的監督對于確保大型語言模型的正常運作至關重要。他說,“此外,大型語言模型需要理解場景,以提供準確的響應并捕捉任何安全問題,并應定期進行測試和評估,以識別潛在的弱點或漏洞。”