保護人工智能,網絡安全專業人士責無旁貸
網絡安全專業人員在確保人工智能工具安全方面責無旁貸,確保這些技術僅用于社會公益,這是 RSA 2024 大會發出的強烈信息。
人工智能在現實世界中大有可為,例如可以更快、更準確地診斷健康狀況。然而,隨著人工智能的創新和應用步伐以前所未有的速度加快,許多人呼吁必須及早建立安全防護措施,以確保人工智能發揮其巨大潛力。
在這一過程中,必須考慮到隱私和公平等概念。
微軟負責安全、合規、身份和管理的副總裁 Vasu Jakkal 強調說:”我們有責任在人工智能快速發展的時代探索創造一個安全可靠的空間。“
另外,人工智能安全中心創始人 Dan Hendrycks 表示,人工智能存在著巨大的風險,鑒于其在物理世界中日益增長的影響力和潛力,這些風險既是社會性的,也是技術性的。也就是說,人工智能的安全保護是一個更廣泛的社會技術問題,而不僅僅是技術問題。
哈佛大學肯尼迪學院安全技術專家、研究員兼講師 Bruce Schneier 指出,現在,人工智能安全和我們的安全緊密相連,因此我們必須更廣泛地思考這些問題。
對人工智能完整性的威脅
員工正在利用 ChatGPT 等公開可用的生成式人工智能工具開展工作,Presidio 公司的 CISO Dan Lohrmann 將這種現象稱為 “自帶人工智能”。
Secureworks 的首席技術官 Mike Aiello 認為,這與 SASE 服務剛出現時的情況類似,當時企業中的許多員工都訂閱了這些服務。現在,企業在使用人工智能方面也面臨同樣的情況,比如注冊 ChatGPT,對于企業來說已經有點不受控制。
這種趨勢給企業帶來了許多安全和隱私方面的問題,比如敏感的公司數據被輸入到這些模型中,可能會導致信息公開。
其他問題也威脅著人工智能工具輸出結果的完整性。這些問題包括數據中毒,即通過改變模型所訓練的數據無意或有意地改變模型的行為;以及提示注入攻擊,即操縱人工智能模型執行非預期的操作。
這些問題有可能破壞人們對人工智能技術的信任,造成模糊、偏見和歧視等問題。反過來看,這將限制人工智能技術的應用和解決重大社會問題的潛力。
人工智能是一項治理問題
在 RSA 大會上發言的專家們主張,企業應像對待其他需要確保安全的應用程序一樣對待人工智能工具。
谷歌安全工程副總裁 Heather Adkins 指出,從本質上講,人工智能系統和其他應用程序一樣,都有輸入和輸出,過去 30 年里開發的很多技術在這里也同樣適用。
Jakkal 認為,確保人工智能系統安全的核心是建立一個強大的風險管理治理體系。她闡述了微軟在這方面的三大支柱:
- 發現: 了解環境中使用了哪些人工智能工具,以及員工是如何使用它們的
- 保護: 降低整個系統的風險,并加以實施
- 治理: 遵守監管和行為準則政策,培訓員工安全使用人工智能工具
Lohrmann 強調,企業要采取的第一步是讓員工了解人工智能的使用情況,在采取行動之前,必須知道發生了什么。
Secureworks 的 Aiello 還主張,在將工作委托給人工智能模型時,員工應該保持高度參與。他解釋說,公司使用工具進行數據分析,析師也要檢查這些數據,并在出現模糊等問題時提供反饋。
結論
目前,我們還處于了解人工智能對社會真正影響的早期階段。要發掘人工智能的巨大潛力,這些保護系統必須具備強大的安全性,否則可能面臨跨組織和跨國家的限制甚至禁令。
如今,企業仍在努力應對工作場所生成式人工智能工具的激增,必須迅速制定能夠安全可靠地管理這種使用的政策和工具,而網絡安全行業對這一問題的處理方式很可能會對人工智能未來的角色產生重大影響。
參考來源:https://www.infosecurity-magazine.com/news/why-cybersecurity-professionals/