CISO保障AI業務安全的五個優先事項
安全領導者必須成為AI的倡導者、風險專家、數據管理員、教育者和研究者,以下是如何引領你的企業走向更安全、更有效的AI使用之路。
當ChatGPT首次問世時,我詢問了一個由CISO組成的小組,這對他們的網絡安全計劃意味著什么。他們認識到了即將到來的變化,但回顧了過去的顛覆性技術,如iPods、Wi-Fi接入點和SaaS應用程序進入企業界的情況。大家的共識是,安全AI將成為一個類似的顛覆者,因此他們認為80%(或更多)的AI安全要求已經到位。諸如強大的資產清單、數據安全、身份治理、漏洞管理等安全基礎,將作為AI網絡安全的基礎。
快進到2025年,我的CISO朋友們說得對——但又不完全對。確實,一個健全且全面的企業安全計劃可以作為AI安全的錨點,但剩下的20%比最初想象的要更具挑戰性。AI應用正在迅速擴大攻擊面,同時還將攻擊面擴展到第三方合作伙伴,以及深入到軟件供應鏈內部,這意味著有限的可見性和盲點。AI通常根植于開源和API連接性,因此可能到處都存在影子AI活動。最后,AI創新正在迅速推進,使得負擔過重的安全團隊難以跟上步伐。
除了AI的技術方面外,值得注意的是,許多AI項目最終都以失敗告終。根據標準普爾全球市場情報(S&P Global Market Intelligence)的研究,2025年有42%的企業關閉了大部分AI倡議(相比之下,2024年這一比例為17%)。此外,近一半(46%)的企業在AI概念驗證還未進入生產階段就已叫停。
為什么這么多AI項目會失敗?行業研究指出,成本、數據質量差、缺乏治理、人才缺口以及擴展問題等是主要原因。
隨著項目的失敗和一系列安全挑戰的出現,企業在確保穩健的AI創新和安全戰略方面有一長串且不斷增長的任務清單。當我最近與我的CISO朋友們會面時,他們經常強調以下五個優先事項:
1. 以強大的治理模型為起點
需要明確的是,我所說的不僅僅是技術或安全。事實上,AI治理模型必須始于業務和技術團隊之間就AI如何以及在哪里用于支持企業使命達成的一致。
為了實現這一點,CISO應與CIO合作,對業務領導者以及法律、財務等業務職能部門進行教育,以建立一個支持業務需求和技術能力的AI框架,該框架應遵循從構思到生產的生命周期,并包括倫理考慮、可接受的使用政策、透明度、監管合規性以及成功指標。
在此過程中,CISO應審查現有的框架,如NIST AI風險管理框架、ISO/IEC 42001:2023、聯合國教科文企業關于人工智能倫理的建議,以及RockCyber的RISE(研究、實施、維持、評估)和CARE(創建、采用、運行、進化)框架。企業可能需要創建一個適合其特定需求的“最佳”框架。
2. 全面且持續地了解AI風險
要掌握企業的AI風險,首先要從基礎做起,如AI資產清單、軟件物料清單、漏洞和暴露管理最佳實踐以及AI風險登記冊。除了基礎衛生外,CISO和安全專業人員必須了解AI特有的威脅,如模型中毒、數據推斷、提示注入等。威脅分析師需要跟上新興的戰術、技術和程序(TTP),這些用于AI攻擊。MITRE ATLAS是一個很好的資源。
隨著AI應用擴展到第三方,CISO將需要對第三方數據、AI安全控制、供應鏈安全等進行定制審計。安全領導者還必須關注新興且經常變化的AI法規。歐盟AI法案是目前最全面的,強調安全性、透明度、非歧視性和環境友好性。其他法規,如科羅拉多州人工智能法案(CAIA),可能會隨著消費者反應、企業經驗和法律判例法的演變而迅速變化。CISO應預期其他州、聯邦、地區和行業法規的出現。
3. 關注不斷發展的數據完整性定義
你可能會認為這是顯而易見的,因為機密性、完整性和可用性構成了網絡安全的CIA三要素,但在信息安全領域,數據完整性一直側重于未經授權的數據修改和數據一致性等問題。這些保護措施仍然是必要的,但CISO應擴大其視野,以包括AI模型本身的數據完整性和真實性。
為了說明這一點,這里有一些著名的數據模型問題示例。亞馬遜創建了一個AI招聘工具,以幫助其更好地篩選簡歷并選擇最合格的候選人。不幸的是,該模型主要使用男性導向的數據進行訓練,因此它歧視女性申請者。同樣,當英國創建一個護照照片檢查應用程序時,其模型是使用白皮膚的人進行訓練的,因此它歧視深色皮膚的人。
AI模型的真實性不是CISSP認證的一部分,但CISO必須將其作為AI治理責任的一部分來掌握。
4. 在所有層面追求AI素養
每個員工、合作伙伴和客戶都將在某種程度上與AI合作,因此AI素養是一個高度優先事項。CISO應從自己的部門開始,對整個安全團隊進行AI基礎知識培訓。
已建立的軟件安全開發生命周期(SDLC)應進行修訂,以涵蓋AI威脅建模、數據處理、API安全等內容。開發者還應接受AI開發最佳實踐的培訓,包括大型語言模型(LLM)的OWASP十大安全風險、谷歌的安全AI框架(SAIF)以及云安全聯盟(CSA)的指導。
最終用戶培訓應包括可接受的使用、數據處理、錯誤信息和深度偽造培訓。來自Mimecast等供應商的人類風險管理(HRM)解決方案可能是跟上AI威脅并為不同個體和角色定制培訓所必需的。
5. 對用于網絡安全的AI技術保持謹慎樂觀的態度
我會將今天的AI安全技術歸類為更像是“駕駛員輔助”,如巡航控制,而非自動駕駛。盡管如此,事情正在迅速推進。
CISO應要求其員工識別離散的任務,如警報分類、威脅狩獵、風險評分和創建報告,在這些任務中他們可能需要一些幫助,然后開始研究這些領域的新興安全創新。
同時,安全領導者應與領先的安全技術合作伙伴安排路線圖會議。參加這些會議時,要準備好討論具體需求,而不是聽那些不切實際的PowerPoint演示。CISO還應直接詢問供應商AI將如何用于現有技術的調優和優化。創新正在不斷涌現,因此我認為值得在現有合作伙伴、競爭對手和初創企業中廣泛尋找。
然而,要小心謹慎,許多AI“產品”實際上只是產品功能,AI應用需要大量資源,且開發和運營成本高昂。一些初創企業將被收購,但許多可能會迅速衰落。買家要當心!
未來的機遇
我將以一個預測來結束這篇文章,目前,約70%的CISO向CIO匯報工作,我相信,隨著AI的普及,CISO的匯報結構將迅速發生變化,更多地將直接向CEO匯報,那些在AI業務和技術治理中發揮領導作用的人很可能會成為首批被提拔的人。