AI 融入軟件供應鏈,安全實踐正在重新定義
AI與企業軟件開發和應用關系的日益緊密,使得AI和軟件供應鏈已經融為一體。AI成為軟件供應鏈的重要組成部分。
AI 的技術復雜性與快速采用特性,構成了供應鏈威脅的“完美風暴”。無論是生產還是應用軟件解決方案的組織,都需要為AI帶來的風險做好準備。
AI增加軟件供應鏈復雜性
AI的引入使得軟件供應鏈的管理變得更加復雜,從而可能帶來新的安全威脅,其中包括保護訓練數據和模型免受潛在漏洞的影響。以下兩個安全要素的管理尤為復雜:
1.機器學習物料清單(MLBOMs)/ 人工智能物料清單(AIBOMs)
將AI集成到軟件供應鏈中為AI模型及其組件引入了額外的跟蹤和管理層,這增加了供應鏈操作的整體復雜性。
與軟件物料清單(SBOMs)類似,MLBOMs或AIBOMs跟蹤AI模型的組件和依賴關系,要確保透明性、可追溯性,并能夠有效管理這些先進系統的復雜性。
這意味著AI模型的硬件和軟件方面都應被考慮在內,數據源、算法和相關資源都應被仔細記錄和管理,使組織能夠更好地控制其AI驅動的解決方案。
2.安全的CI/CD管道
對于AI開發,確保CI/CD管道的安全至關重要,以防止未經授權的更改或惡意代碼注入,從而導致管理供應鏈操作的整體復雜性增加。
例如,徹底掃描第一方代碼至關重要,這涉及對內部開發的代碼進行審查,以識別漏洞并確保其遵循最佳安全實踐。實施強大的代碼掃描程序可以顯著增強AI開發過程的安全性。
由此,AI與軟件供應鏈的深度融合帶來了新的安全風險生態系統,包括:
1.生成式 AI 毒化
惡意行為者利用 AI 向開源訓練數據集中注入欺騙性數據、漏洞或后門。這會危害依賴這些數據集的下游 AI 系統。
2.AI 生成的拼寫欺詐
AI 自動創建與合法開源包名稱幾乎相同的虛假包(例如,“numpy”與“num-py”),欺騙開發者安裝惡意軟件。
3.分發惡意軟件的虛假項目
AI 生成看似真實的代碼庫或庫,其中包含隱藏的惡意軟件。這些惡意軟件能夠繞過傳統的安全檢查,例如在利用 Hugging Face 等平臺的攻擊中。
4.AI 增強的網絡釣魚
攻擊者使用 AI 制作針對供應鏈利益相關者的可信網絡釣魚電子郵件,竊取憑證以滲透開發管道。
融入AI的軟件供應鏈安全挑戰
AI 與軟件供應鏈深度融合后,形成了新的安全風險生態系統。
1.AI是開發者
AI缺乏人類工程師的經驗和判斷力,可能引入新的安全漏洞。
分析機構Gartner預測,到2028年,75%的企業軟件工程師將使用AI代碼助手。這代表著對AI自動化軟件工程任務的依賴日益增長。AI編碼工具市場預計從2024年的43億美元增長到2028年的126億美元。
雖然這種驚人的增長無疑會催生創新,但也會給軟件生產和消費組織帶來重大的網絡安全風險。這是因為AI工具本身缺乏人類軟件工程師所具備的經驗、背景和意識。人類軟件團隊在區分高質量和低質量代碼以及識別不安全組件方面至關重要。
AI編碼助手是在包含已知和已修補漏洞、過時加密算法和過時開源組件的代碼上進行訓練的。更糟糕的是,這些AI助手可能產生傳統應用程序安全測試(AST)工具難以檢測的新軟件供應鏈安全風險。例如數據中毒,可能會破壞AI編碼工具依賴的學習模型。人類的監督、背景理解和檢查在解決這些問題上一直至關重要。
對這些工具的依賴增加印證了微軟的警告:生成式AI系統可能會創造并放大安全風險。
2.AI是模型
ML模型數量爆炸性增長,這些模型本身可能成為被攻擊的目標。
機器學習(ML)模型非常強大,大語言模型(LLM)和生成式AI在AI系統和工具中的使用和應用已呈爆炸式增長。我們從領先的ML模型共享平臺Hugging Face的增長中看到這一點,該平臺在2024年9月達到了100萬個ML模型,而2023年僅有30萬個。像Hugging Face這樣的平臺由于提供了工具、服務和在線社區,促進了ML模型的開發、修改和部署,正在變得越來越普遍。
然而,就像任何其他基于軟件的產品或組件一樣,ML模型及其所在平臺也面臨被惡意行為者破壞或操縱的風險。攻擊者可以利用這項技術執行惡意命令、竊取或破壞敏感數據、進行間諜活動,并破壞組織的系統。
3.AI是攻擊者
威脅行為者正在利用AI技術增強攻擊能力。
威脅行為者已經開始采用LLM和GenAI來加強和自動化他們的攻擊。生產或使用企業軟件的組織必須意識到這些由AI驅動的威脅,并了解如何減輕它們。
已經有安全公司證明AI生成的惡意軟件是真實存在的。雖然目前形式的生成式AI尚未熟練到能從頭創建惡意軟件的程度,但它可以修改現有惡意軟件樣本,使其更難被檢測和緩解。例如,惠普威脅研究人員發現了一個使用VBScript和JavaScript傳播AsyncRAT惡意軟件的活動,該團隊得出結論認為這是在生成式AI的協助下編寫的。
同時,LLM在代碼掃描方面已證明非常高效——使軟件生產商比以往任何時候都更容易分析代碼中的安全漏洞和其他缺陷。不幸的是,威脅行為者同樣能夠使用這種代碼掃描技術來發動毀滅性的軟件供應鏈攻擊。這已經體現在攻擊者如何利用LLM掃描開源軟件存儲庫,尋找可以利用的缺陷。
AI保護軟件供應鏈的七種方式
AI已成為軟件開發者、產品和攻擊者,這可能會讓組織不堪重負。然而,盡管AI對供應鏈安全構成挑戰并增加了復雜性,但它也可以增強供應鏈安全。以下是AI如何保護供應鏈的七個方式及其好處和局限性。
圖片
融合AI的軟件供應鏈安全未來
在軟件供應鏈安全中使用AI帶來了創新的機會和挑戰,隨著行業的發展,至關重要的是要保持對即將出現的趨勢的敏銳洞察,并準備應對不斷變化的安全威脅。
1.新的AI攻擊向量
不斷發展的AI攻擊向量將針對軟件、AI模型及其訓練數據。威脅行為者將利用AI系統中的漏洞,從毒化訓練數據到對AI模型的對抗性攻擊,帶來新的挑戰。
2.新的AI驅動軟件以保護供應鏈
未來將開發專門設計用于保護供應鏈的先進AI驅動安全解決方案。這些解決方案將利用AI進行實時威脅檢測、自動化事件響應和全面的漏洞評估。
3.推動AIBOMs的采用
組織將越來越多地采用人工智能物料清單,以確保AI模型組件和依賴關系的透明性和問責制。AIBOMs將成為跟蹤AI模型的來源、依賴關系和潛在漏洞的標準做法,從而增強其整體安全性和可信度。
AI的雙重用途特性正在重新定義安全實踐。隨著軟件復雜性的爆炸式增長,企業安全團隊需要一種強大、現代且全面的軟件供應鏈安全防護方法,采用開發AI驅動的安全工具和采用透明度措施。這是我們阻止即將到來的AI生成攻擊的唯一方法。