報告:83%組織采用AI生成代碼,面臨AI中毒和模型逃逸等風險
Venafi一份針對網絡安全高管的調查發現,全球高達83%的組織正在使用AI來生成代碼,相應的安全防護卻嚴重滯后。調查表明,92%的受訪者對開發和運營團隊如此廣泛依賴AI所隱含的安全影響表示擔憂。
這項調查匯集了來自美國、英國、德國和法國的800名受訪者的觀點和見解,凸顯出AI 驅動開發的快速發展與有效保障新技術安全的能力之間的差距在日益擴大。
盡管風險越來越大,但72%的受訪者表示,他們別無選擇,只能允許開發人員使用AI來保持競爭力。與此同時,63%的受訪者出于安全考慮打算完全禁止AI生成的代碼。
AI輔助代碼開發變得司空見慣
Venafi在報告中強調的一個最緊迫的挑戰:安全團隊難以跟上AI驅動的開發速度。66%的受訪者承認,安全團隊幾乎不可能以AI驅動的代碼部署速度來管理它,這引發了人們對即將到來的“安全清算”的擔憂。與此同時,78%的受訪者預計,隨著AI的采用量繼續激增,將會面臨嚴峻的安全挑戰。
Venafi首席創新官Kevin Bocek說:“隨著開發人員和新手以尚未了解的方式使用大量GenAI生成的代碼,已經開始出現一些新的威脅,例如AI中毒和模型逃逸。”
該報告還揭示了開發和運營人員對開源代碼的嚴重依賴。受訪的安全領導者估計,他們 61%的應用都包含開源組件。雖然90%的安全領導者信任這些庫,但86%的人認為開源優先考慮的是速度而不是安全最佳實踐。
這帶來了一個嚴峻的挑戰,因為75%的人承認,驗證每一行開源代碼的安全性幾乎是不可能實現的。
Venafi技術總監Steve Judd對此表示,“組織不能盲目地相信開源解決方案,因為他們真的不知道是誰創建了這些解決方案或做出了貢獻。”
AI帶來的安全問題存在治理差距
Venafi的研究還指出了安全治理方面的重大差距,47%的組織缺乏確保在其開發環境中安全使用AI的政策。此外,63%的安全領導者認為,由于無法了解AI的使用情況,因此幾乎不可能在組織內部對AI的使用進行監管。
Venafi在報告中主張將代碼簽名作為一種關鍵的防御機制,以抵御AI和開源開發帶來的風險。92%的安全領導者認為代碼簽名對于在開源代碼中建立信任至關重要,因為它驗證了代碼的真實性和完整性。這種方法可確保不執行任何未經授權的代碼,從而保護組織免受潛在攻擊。
值得注意的是,早在AI出現之前,很多編碼工作已經實現了自動化。像代碼自動補全和低代碼平臺這樣的工具已經能夠處理一些日常任務,例如檢測bug、樣板代碼生成和語言翻譯。集成開發環境(IDE)也早就能夠提供自動完成功能,以加快編碼速度并減少人工操作。
不過,這些自動化系統傳統上主要關注調試和格式化等低級任務,主要是為了簡化特定的開發階段,與AI驅動的利用大型語言模型(LLM)來大量增加代碼大有不同。