行為分析:被誤解的人工智能帶來的安全風險
如果你相信炒作,那人工智能(AI)和機器學習(ML)已經在保護現代IT基礎設施安全方面發揮了重大作用。但真相是,這兩種技術是強大卻常被誤解的工具,某些情況下,如果未能正確實現,甚至還會破壞公司的數據安全。
很多實例表明,“AI”是個過度使用的營銷行話,無法準確描述這項與真正的人工智能相去甚遠的現有技術。所謂的“AI平臺”可能會讓首席信息官們撓頭,想知道到底是怎么能從龐大且不斷增長的客戶數據庫中了解每位客戶的行為的,或者平臺到底有沒有基于算法做出有根據的猜測。區分真正的AI和標準固定邏輯太難了。
對于Microsoft Teams、SharePoint、Microsoft 365、Google Drive等云應用,有權定義誰能訪問文件和文件夾的是最終用戶而非管理員。這種做法盡管對最終用戶來說非常方便,卻導致幾乎無法以遵從策略的標準方式來控制公司的數據訪問:因為每個人都可以修改許可。真正解決這一問題的唯一方法可能是某種形式的自動化解決方案,或者將訪問權限審查外包出去。
大多數企業的環境中流轉著大量數據,因而很多企業試圖將AI用作自動化解決方案來查找和審核敏感數據的訪問權限。這些解決方案僅顯示應控制訪問權限的文件子集(可能仍有成千上萬),可避免用戶被與其權限相關的數百萬份文件的審查工作狂轟濫炸。看起來很明智,對吧?但實際上,這種方式忽略了不遵循算法所查找模式的數據,還常常引發誤報。
用AI執行行為分析的三個問題
當前行為分析市場上沒有真正的AI解決方案。真正的AI創建隨機生成的算法,并用大量“正確”答案測試這些算法,再從中挑出最有效的。這就給使用AI進行行為分析帶來了三個重大問題。
(1) 沒有哪家公司擁有足夠大的客戶數據集供算法訓練使用。即使假設有公司擁有這種體量的數據集,他們也不會想透露給別人知道,因為這有可能將自己樹成黑客集火的巨大標靶。
(2) 每位客戶都是獨特的,所以即便公司可以用客戶數據訓練算法,卻未必適用于他們的具體業務。
(3) 如果在逐個客戶的基礎上訓練算法,那就是在當前系統上訓練。這種情況下,如果當前系統已經處于理想狀態,訓練結果會相當不錯;如果當前系統并不理想,會反而固化現有安全問題。
云和遠程辦公增添挑戰
從安全的角度來看,采用云會帶來各種各樣的數據挑戰,員工在家辦公還會增加這樣的挑戰。居家辦公的員工代表著不斷壯大的最終用戶群體,而且還是突然之間獲得大量數據訪問權的最終用戶。
大多數沒有經過專門培訓的員工并不清楚云從哪里開始和結束,給非故意違反公司安全策略留下了空間。這正成為公司非常常見的內部安全威脅,尤其是在數據庫被編程為用AI來削減數據訪問時。只要使用不當,此類訪問常會存在嚴重的安全漏洞。
很多公司宣稱使用AI監測和改善其數據訪問。許多人認為AI可以排序或分發數據,但實際上,AI通常不用來處理這樣的事務。AI最常規的用法是實現數據庫訪問控制。
盲目信任AI很危險
數據治理和保護一直都很重要,尤其是在遠程辦公和混合辦公趨勢延續的情況下。盡管AI和ML是功能強大的工具,公司仍需了解自己利用的是真正的技術,還是無法勝任安全任務的繡花枕頭。
這些技術不可能在真空中實現,企業需采取果斷措施緩解關鍵安全風險,比如設置員工培訓和實現受監管的訪問來確保數據安全。最終,AI與你搬運數據的任何其他計算機程序無異,都是“壞數據進壞數據出”。客戶數據庫如此龐大,員工非故意安全違規如此常見,設置人工過程檢查這些結果真的很重要,因為風險就存在于盲目信任AI上。