Gen AI數據風險加劇,數據丟失防護(DLP)供應商紛紛出手!
隨著ChatGPT的日益普及,大語言模型應用的數據安全風險進一步加劇。但這場挑戰同樣蘊含著機遇,全球數據丟失防護(DLP)供應商已經瞄準時機,競相在其平臺上添加對生成式AI用例的支持。
據IDC今年8月發布的一份報告顯示,65%的公司已經部署了生成式人工智能,19%的公司正在積極探索,13%的公司仍在考慮,只有3%的公司表示不打算使用生成式人工智能。
IDC表示,企業采用人工智能的最大障礙是擔心專有信息會泄露到生成式AI技術提供商擁有的大語言模型中。IEEE高級會員、Hyperproof的首席信息安全官Kayne McGladrey表示:
“各行各業的員工都在尋找創新的方式來更快地完成工作任務。然而,這可能會導致無意中共享機密或受監管的信息。例如,如果醫生將個人健康信息輸入人工智能工具,以協助起草保險信,他們可能會違反HIPAA法規。”
問題在于,許多公共AI平臺的訓練數據來自與用戶的互動。這意味著,如果用戶將公司機密上傳到人工智能上,人工智能就會知道這些秘密,并將這些信息泄露給下一個詢問這些秘密的人。不僅僅是公共人工智能存在這個問題,攝取敏感公司數據的內部大型語言模型(LLM)也可能會將這些數據提供給不應該看到它們的員工。
根據Netscope7月份發布的一份報告顯示,許多行業已經開始使用DLP工具來幫助保護生成式AI。例如,在金融服務行業中,19%的組織使用DLP工具,在醫療保健中,這一數字為21%。在垂直技術領域,26%的公司正在使用DLP來降低ChatGPT和類似應用程序的風險。
DLP供應商的應對策略
Skyhigh:跟蹤500多個AI應用程序
Skyhigh Security將DLP工具作為其CASB產品的一部分,后者也是其SSE平臺的一部分。在過去一年里,該公司一直在迅速增加對生成式AI用例的支持。
該公司目前在其云注冊表中跟蹤了500多家不同的AI云服務提供商,這一數字自今年1月份以來上漲了130%。據介紹,這個云注冊表可以快速識別新的生成式AI應用程序和每個應用相應的風險等級。
Skyhigh還與許多添加了生成式AI功能的企業應用程序進行了直接API集成,包括Box、Google、Microsoft、Salesforce、ServiceNow、Slack、Workday、Workplace和Zoom,從而能夠更好地洞察和控制數據流。
Zscaler:提供細粒度的預定義gen AI控制
截至今年5月,Zscaler已經確定了數百個生成式AI工具和網站,并創建了一個AI應用程序類別,使公司更容易阻止訪問,或向訪問網站的用戶發出警告,或啟用細粒度的DLP控制。
Zscaler全球CISO兼安全研究和運營主管Deepen Desai表示,最大的問題是用戶不僅僅會向AI發送文件,對于DLP供應商來說,重要的是要檢測文本和表單中的敏感數據,同時又不會產生太多的誤報。
此外,開發人員正在使用生成式AI來調試代碼和編寫單元測試用例。因此,DLP供應商還要能夠檢測源代碼中的敏感信息(如AWS密鑰、敏感令牌、加密密鑰)并防止生成式AI工具學習這些敏感數據。
當然,情境/上下文也很重要。ChatGPT的默認配置方式是允許AI從用戶提交的信息中學習。在私有環境中運行的ChatGPT是隔離的,不具有相同級別的風險。因此,在使用這些工具時,了解采取行動的情境至關重要。
CloudFlare:將DLP服務擴展到gen AI
今年5月,Cloudflare擴展了其SASE平臺Cloudflare One,添加了生成式AI的數據丟失防護功能,其中包括對社會安全號碼或信用卡號碼的簡單檢查。該公司還為特定團隊提供了定制掃描功能,并為特定個人提供精細規則。此外,該公司還可以幫助企業了解員工何時使用AI服務。
今年9月,該公司宣布為OpenAI、Bard和Github Copilot提供數據暴露可視性方案,并展示了一個案例研究,在此案例中,Applied Systems使用Cloudflare One來保護AI環境(包括ChatGPT)中的數據。
此外,它的AI網關支持OpenAI、HuggingFace、Replicate等模型提供商,并計劃在未來添加更多模型提供商。它位于AI應用程序及其連接的第三方模型之間,在未來,它還將增加DLP功能,例如,可以編輯包含API密鑰等敏感數據的請求,或刪除這些請求,或記錄并警告用戶。
Cyberhaven:自動化數據防護方案
據Cyberhaven稱,截至今年3月,4%的工作人員已經將敏感數據上傳到ChatGPT,平均而言,流向ChatGPT的數據中有11%是敏感數據。在2月份的一周內,平均每10萬員工中發生了43起敏感項目文件泄露、75起受監管個人數據泄露、70起受監管醫療數據泄露、130起客戶數據泄露、119起源代碼泄露和150起機密文件泄露事件。
Cyberhaven表示,其DLP產品會自動記錄輸入人工智能工具的數據,以便企業能夠了解正在發生的情況,并幫助其制定安全策略來控制這些數據流。對于人工智能而言,DLP的一個特殊挑戰是,敏感數據通常從企業應用程序或文檔中的打開窗口直接剪切并粘貼到ChatGPT等應用程序中。尋找文件傳輸的DLP工具無法捕捉到這一點。
Cyberhaven允許企業自動阻止這種敏感數據的剪切和粘貼,并提醒用戶特定操作被阻止的原因,然后將他們重定向到安全的替代方案,例如私有AI系統,或者允許用戶提供合理解釋來解除阻止。
谷歌:通過敏感數據保護功能防止自定義模型使用敏感數據
谷歌的敏感數據保護(SDP)服務包括云數據丟失防護技術,允許公司檢測敏感數據并防止其被用于訓練生成式AI模型。該公司在一篇博文中指出:
“企業可以使用谷歌云的敏感數據保護在生成人工智能模型的整個生命周期(從訓練到調整再到推理)中添加額外的數據保護層。”
例如,公司可能希望使用客戶服務對話記錄來訓練其人工智能模型。谷歌的敏感數據保護工具將用數據類型的描述(例如“email_address”)來替換客戶的電子郵件地址,或者用生成的隨機數據來替換實際的客戶數據。
Code42:提供生成式AI培訓模塊
今年9月,DLP供應商Code42發布了內部風險管理計劃Launchpad,其中包括專注于生成式AI的一系列培訓模塊、工具和模板,以幫助客戶解決生成式AI的安全使用問題。該公司還向客戶提供ChatGPT和其他生成式AI工具的使用情況,檢測復制粘貼活動,并在必要時進行阻止。
Fortra:在Digital Guardian中增加gen AI安全功能
Fortra已經在其Digital GuardianDLP工具中添加了特定的gen AI相關功能,以幫助其客戶選擇管理員工對生成式AI的訪問方式——從完全阻止訪問到僅阻止輸入特定內容,再到僅僅監控員工發布到AI工具的流量和內容。
企業為生成式AI部署DLP的方式各不相同。例如,教育機構幾乎100%阻止訪問AI工具,媒體和娛樂業也接近100%。此外,制造業——特別是敏感行業,例如軍事工業,也接近100%。而服務業企業主要關注的不是阻止這些工具的使用,而是阻止敏感數據(例如客戶信息或公司產品源代碼等)被發布到這些工具上。
事實上,大多數公司甚至還沒有開始控制對生成式AI的訪問。如此一來,組織面臨的最大挑戰就是,在明知員工想要使用它的情況下,如何確定正確的使用平衡。
DoControl:幫助阻止AI應用程序,防止數據丟失
即使在同一家公司內,不同的AI工具也會帶來不同的風險。軟件即服務(SaaS)DLP公司DoControl表示:
“監控用戶輸入文檔是否存在拼寫或語法問題的人工智能工具,對于營銷人員來說可能是可以接受的,但對于財務、人力資源或企業戰略人員來說就不可接受了。”
DoControl可以評估特定AI工具所涉及的風險,不僅了解工具本身,還了解用戶的角色和風險級別。如果工具風險太大,用戶可以立即獲得有關風險的教育,并指導他們使用經批準的替代方案。如果用戶認為其請求的應用程序存在合法的業務需求,DoControl可以自動在企業工單系統中創建例外。
到目前為止,在DoControl的客戶中,100%的客戶安裝了某種形式的生成式AI,58%的客戶擁有5個或更多的AI應用程序。此外,24%的客戶部署了具有廣泛數據權限的AI應用程序,12%的客戶擁有高風險的AI影子應用程序。
Palo Alto Networks:防范主流AI應用
企業越來越關注基于AI的聊天機器人和助手,例如ChatGPT、Google Bard和Github Copilot。Palo Alto Networks數據安全解決方案使客戶能夠保護其敏感數據免遭數據泄露或意外暴露。例如,公司可以阻止用戶將敏感數據輸入這些應用程序,在統一控制臺中查看標記的數據,或者完全限制特定應用程序的使用。
生成式AI會帶來所有常見的數據安全問題,包括醫療數據、財務數據和公司機密的泄露。此外,軟件開發人員可能會上傳專有代碼來幫助查找和修復錯誤,企業營銷團隊可能會尋求AI幫忙撰寫敏感的新聞稿和活動文案。這給DLP產品帶來獨特的挑戰,市場需要具有自然語言理解、上下文分析和動態策略執行的DLP解決方案。
Symantec:增加開箱即用的gen AI分類功能
賽門鐵克(Symantec,現已隸屬Broadcom)已在其DLP解決方案中添加了生成式AI支持,其形式是“開箱即用”,可以對整個生成式AI應用程序進行分類,并對它們進行單獨或整體監控。
ChatGPT是最受關注的領域,但企業也開始擔心谷歌的Bard和微軟的Copilot。進一步的擔憂通常是特殊的新型專用生成式AI應用以及集成到垂直應用程序中的AI功能。此外,非官方、未經批準的AI應用程序進一步增加了客戶的數據丟失風險。
用戶可以向這些平臺上傳藥物配方、設計圖紙、專利申請、源代碼和其他類型的敏感信息,這些信息的格式通常是標準DLP無法捕捉的。賽門鐵克的應對方法是使用光學字符識別(OCR)來分析潛在的敏感圖像。
Forcepoint:對gen AI應用進行分類,提供精細控制
為了使Forcepoint ONE SSE客戶更輕松地管理生成式AI數據風險,Forcepoint允許IT部門按類別或單個應用的名稱來管理誰可以訪問生成式AI服務。Forcepoint的DLP產品可以對輸入AI工具的信息類型進行精細控制。公司還可以對用戶是否可以復制和粘貼大塊文本或上傳文件設置限制。這確保有業務需要使用生成式AI工具的團隊不會意外或惡意上傳敏感數據。
GTB Technologies:解決律師事務所面臨的ChatGPT挑戰
今年6月,兩名紐約律師及其律師事務所遭到罰款處罰,起因是他們提交了一份由ChatGPT撰寫的簡報,其中包括虛構的案例引用。但是,律師事務所使用生成式AI的風險不僅限于“編造”,還存在向AI模型泄露敏感客戶信息的風險。
為了解決這一風險,DLP供應商GTB Technologies在8月份發布了專為律師事務所設計的生成式AI DLP解決方案。它不僅關乎ChatGPT,還涵蓋所有AI應用,通過實時監控防止敏感數據與AI程序共享,以保護律師與客戶的權益,幫助律師事務所在完全合規的情況下使用AI。
Next DLP:添加了針對主流AI平臺的策略模板
Next DLP于4月份將ChatGPT策略模板引入其Reveal平臺,提供預配置的策略來培訓員工正確使用ChatGPT,或阻止敏感信息泄露。9月份,NextDLP推出了其他幾個主要生成式AI平臺的策略模板,包括Hugging Face、Bard、Claude、Dall-E、Copy.AI、Rytr、Tome和Lumen5。
此外,Next DLP在7月份調查了數百家公司后發現,97%的公司至少有一名員工使用ChatGPT,所有員工中使用ChatGPT的人數比例達到8%。由此可見,生成式AI已在企業內部泛濫,CISO時候為這些工具部署可見性或保護措施了。
DLP的未來是生成式AI
生成式AI不僅僅是DLP技術的最新用例。如果使用得當,它也有可能徹底改變DLP的工作方式。Omdia新興技術首席分析師Rik Turner表示,傳統上,DLP是基于規則的,屬于靜態且勞動密集型工具。但老派的DLP供應商大多都已被收購,成為更大平臺的一部分,或者已經發展為數據安全態勢管理方案,并使用AI來增強或取代舊的基于規則的方法。現在,有了生成式AI,它們有機會走得更遠。
IEEE成員、信息安全和合規專家Rebecca Herold表示,使用生成式AI的DLP工具本身必須確保它們不會保留發現的敏感數據。但到目前為止,還沒有看到任何供應商成功地做到了這一點。所有的安全供應商都表示,他們正在添加生成式AI功能,但早期的實現似乎都只是在用戶界面中添加聊天機器人。在未來6到12個月內,希望除了提供聊天機器人功能之外,還會有一些經過驗證的DLP工具,作用于人工智能的多個方面。
總之,數據安全沒有放之四海而皆準的解決方案,任何這樣想的組織都是在自欺欺人。我們無法阻止員工使用公共ChatGPT。但為了盡可能阻止員工泄露數據,企業可以加強管控力度,并提供適當的培訓。
原文鏈接:https://www.csoonline.com/article/657362/data-loss-prevention-vendors-tackle-gen-ai-data-risks.html