大語言模型熱潮與現實的差距:CISO應關注什么
從AI應用中的風險,如中毒的訓練數據和幻覺現象,到AI賦能的安全措施,再到深度偽造、用戶錯誤以及新型AI生成的攻擊技術,網絡安全行業正充斥著令人恐懼的安全威脅,這些威脅讓CISO們不堪重負。
例如,在2025年4月的RSA會議期間及之后,與會者紛紛對AI帶來的恐懼、不確定性和懷疑(FUD)表示強烈不滿,尤其是供應商方面的表現。
其中一位是Netflix的信息風險工程師Tony Martin-Vegue,他在RSAC會議后的采訪中告訴記者,雖然AI的炒作和潛力很大,但無法阻止其發展,不過有方法可以穿透炒作,并在最關鍵的地方應用基本控制措施。
首先,他說,要關注企業為何部署AI。“我認為,盡管AI的能力被過度炒作和寄予厚望,但不使用AI也存在風險,也就是說,不使用AI的企業將被淘汰,而使用AI的風險正是所有FUD的來源。”
在應用控制措施方面,他建議采用與采用云、BYOD和其他強大技術時相同的流程,即循環往復地執行,首先要了解AI在何處、如何被使用,由誰使用,以及用于什么目的,然后,重點關注員工與工具共享的數據的安全性。
了解你的AI
“AI是一項將深刻改變社會的基本變革,其影響力甚至可能超過互聯網,但這一變革發生得如此之快,以至于很多人難以理解其模糊效應,”SANS研究所AI和新興威脅研究主管Rob T. Lee解釋道。“現在,企業的每個部分都將以不同形式利用AI。你需要一種方法來從根本上降低實施風險,這意味著要了解人們在哪里使用它,以及在什么業務用例下使用,遍及整個企業。”
Lee正在幫助SANS開發社區共識的AI安全指南檢查表,他每天花30分鐘使用先進的智能體進行各種業務目的,并鼓勵其他網絡安全和執行領導也這樣做,因為一旦他們熟悉了這些程序及其能力,就可以開始選擇控制措施了。
例如,Lee提到Moderna在2025年5月宣布將人力資源和IT合并到一個新角色下,即首席人力與數字技術官。“工作不再僅僅涉及人類,而是涉及管理人類和智能體,”Lee解釋道,“這要求人力資源和IT以新的方式協作。”
重新審視安全基礎
這并不是說因為AI是全新的,當前的安全基礎就不重要了,它們當然重要。
美國全國公司董事協會(NACD)的高級網絡風險顧問Chris Hetner解釋道:“網絡安全行業經常在一個回聲室中運作,高度反應性。回聲室通過談論自主式AI、AI漂移和其他風險來推動機器運轉,然后,一整套新的供應商就會讓CISO的組合變得不堪重負。”“AI只是現有技術的延伸。它為我們提供了另一個視角,讓我們可以將注意力重新集中在本質上。”
當Hetner提到本質時,他強調了理解業務概況、確定數字景觀中的威脅以及辨別業務單元之間互連的重要性,然后,安全領導者應評估在發生泄露或曝光事件時可能產生的運營、法律、監管和財務影響,接著,他們應將這些信息匯總成一個全面的風險概況,提交給執行團隊和董事會,以便他們確定愿意接受、緩解和轉移哪些風險。
保護數據
鑒于AI被用于分析財務、銷售、人力資源、產品開發、客戶關系和其他敏感數據,Martin-Vegue認為數據保護應該是風險管理者控制措施列表中的首要任務,這又回到了了解員工如何使用AI、用于什么功能以及他們向AI啟用應用程序中輸入的數據類型上。
或者,正如2025年5月來自澳大利亞、新西蘭、英國和美國安全機構的一份關于AI數據安全的聯合備忘錄所解釋的那樣:了解你的數據是什么、在哪里以及將流向哪里。
當然,說起來容易做起來難,因為根據多項調查,大多數企業不知道他們所有的敏感數據在哪里,更不用說如何控制它們了,然而,與其他新技術一樣,保護用于LLM的數據歸結為用戶教育和數據治理,包括傳統控制措施,如掃描和加密。
“你的用戶可能不了解使用這些AI解決方案的最佳方式,因此網絡安全和治理領導者需要幫助設計適用于他們和你的風險管理團隊的使用案例和部署方案。”長期從事網絡安全分析并在Protect AI擔任CISO的Diana Kelley說。
保護模型
Kelley指出了各種AI采用和部署模型之間的風險差異,像ChatGPT這樣的免費、公共版本AI,用戶將數據插入基于網絡的聊天提示中,對員工與界面共享的數據發生的處理幾乎沒有控制權。支付專業版費用并將AI引入企業內部,企業可以獲得更多控制權,但企業許可證和自托管成本往往超出了小企業的承受能力,另一種選擇是在受管理的云平臺上運行基礎模型,如Amazon Bedrock和其他安全配置的云服務,數據在賬戶持有者的保護環境中進行處理和分析。
“這不是魔法或小火花,盡管在你的應用程序中AI經常被這樣表現,它是數學,它是軟件,我們知道如何保護軟件,然而,AI是一種新型軟件,需要新型的安全方法和工具,”Kelley補充道,“模型文件是一種不同類型的文件,因此你需要一個專為其獨特結構設計的掃描器。”
模型文件是一組權重和偏差,她繼續說道,當它被反序列化時,企業就在運行不受信任的代碼,這使得模型成為模型序列化攻擊(MSA)的主要目標,網絡犯罪分子希望借此操縱目標系統。
除了MSA風險外,AI模型,尤其是從開源獲取的模型,還可能成為模仿可信文件名稱但包含惡意軟件的拼寫錯誤攻擊(typosquatting attacks)的受害者,它們還容易受到神經后門和其他供應鏈漏洞的攻擊,這就是為什么Kelley建議在批準模型進行部署和開發之前對其進行掃描。
由于支持AI應用程序的LLM與傳統軟件不同,對不同類型的掃描和監控的需求導致了專業化解決方案的激增,但跡象表明,隨著傳統安全供應商開始整合專業工具,如Palo Alto Networks即將收購Protect AI,這個市場正在收縮。
“了解AI技術的工作原理,知道你的員工如何使用它,并建立控制措施,”Kelley重復道,“是的,這需要很多工作,但不必害怕,你也不必相信FUD,這就是我們進行風險管理的方式。”