生成式AI正將員工轉化為無意識的內鬼威脅:企業安全新挑戰
根據Netskope最新研究,企業向生成式AI(GenAI)應用共享的數據量呈現爆炸式增長,一年內激增30倍。目前平均每家企業每月向AI工具傳輸的數據量已達7.7GB,較一年前的250MB實現跨越式增長。
這些數據包含源代碼、受監管數據、密碼密鑰和知識產權等敏感信息,大幅增加了數據泄露、合規違規和知識產權盜竊的風險。75%的企業用戶正在使用具備生成式AI功能的應用,這給安全團隊帶來了新挑戰:無意識的內鬼威脅。
生成式AI應用帶來持續升級的網絡安全風險
數據顯示,90%的企業有員工直接使用ChatGPT、Google Gemini和GitHub Copilot等生成式AI應用,98%的企業員工使用Gladly、Insider等集成AI功能的應用程序。從數據安全視角看,最關鍵的風險指標是傳輸至AI應用的數據量——每次上傳都可能成為數據泄露的導火索。
Netskope首席信息安全官James Robinson指出:"盡管企業努力推廣官方管理的AI工具,但我們的研究表明,影子IT已演變為影子AI——近四分之三用戶仍通過個人賬戶訪問生成式AI應用。這種趨勢與共享數據的敏感性相結合,凸顯了企業需要增強數據安全能力,以重新獲得對AI使用的治理權、可見性和使用規范。"
企業對AI數據缺乏有效管控
多數組織對間接使用生成式AI時的數據處理、存儲和利用方式缺乏完整可見性。常見做法是采取"先阻斷后審查"策略,僅允許特定應用而屏蔽其他所有AI工具。但安全管理者需要制定安全啟用策略,平衡員工對效率提升的需求與風險管控。
典型案例是DeepSeek AI——Netskope發現該應用在2025年1月上線后數周內,就有91%的企業出現訪問嘗試。當時大多數企業尚未制定相關安全政策,使企業暴露于未知風險。更嚴重的是,員工可能在不知情的情況下向AI輸入商業機密,包括源代碼、知識產權、受監管數據甚至密碼等敏感信息。
Netskope威脅實驗室總監Ray Canzanese強調:"生成式AI已從邊緣技術發展為無處不在的基礎設施,從獨立應用到后端集成日益普及。這種泛在化帶來持續升級的網絡安全挑戰,要求企業采取全面風險管理措施,否則敏感數據可能被第三方用于訓練新AI模型,引發更廣泛的數據泄露風險。"
本地化部署催生新型安全威脅
過去一年,企業本地部署生成式AI基礎設施的比例從不足1%飆升至54%。雖然這降低了云端第三方應用的數據暴露風險,但本地化部署帶來了供應鏈風險、數據泄漏、輸出處理不當等新型威脅,以及提示詞注入、越獄攻擊和元提示提取等特有風險。因此許多企業在已有云端AI應用基礎上,疊加部署了本地化AI基礎設施。
影子AI現象持續蔓延
雖然多數企業已使用生成式AI,但主動使用獨立AI應用的用戶比例雖小卻持續增長。過去一年企業內使用AI應用的人數幾乎翻倍,平均每家企業4.9%的員工使用生成式AI應用。
企業AI應用采用模式延續了云服務的典型路徑:員工通過個人賬戶使用應用。這導致企業內大部分AI使用可歸類為影子IT(指未經IT部門批準使用的解決方案)。專為AI解決方案創造的"影子AI"新術語,更強調這些應用的隱蔽性和非正式性。即使在ChatGPT引發AI熱潮兩年后的今天,72%的用戶仍通過個人賬戶在工作場所使用ChatGPT、Google Gemini等主流AI應用。
Netskope安全與情報運營副總裁Ari Giguere表示:"AI不僅重塑邊界安全和平臺安全,更在重寫安全規則。"
目前99%的企業正在實施風險管控政策,包括全面禁用AI應用、限制特定用戶群體使用,以及控制輸入AI的數據類型等措施。這些政策的具體實施方式將在后續詳細解析。