在企業中使用人工智能驅動的聊天機器人的風險
自2022年11月ChatGPT正式推出以來,已有數百萬用戶瘋狂涌入。由于其出色的類人語言生成能力,編程軟件的天賦,以及閃電般的文本分析能力,ChatGPT已經迅速成為開發人員、研究人員和日常用戶的首選工具。
與任何顛覆性技術一樣,像ChatGPT這樣的生成式人工智能系統也存在潛在風險。特別是,科技行業的主要參與者、國家情報機構和其他政府機構都對將敏感信息輸入ChatGPT等人工智能系統發出了警告。
對ChatGPT存在安全風險的擔憂源于信息可能會通過ChatGPT最終泄露到公共領域,無論是通過安全漏洞還是使用用戶生成的內容來“訓練”聊天機器人。
為了應對這些擔憂,技術公司正在采取行動,減輕與大型語言模型(LLMs)和會話式AI (CAI)相關的安全風險。一些企業甚至已經選擇完全禁用ChatGPT,而其他企業則警告其員工將機密數據輸入此類模型的危險。
ChatGPT:一個可怕的開放AI?
人工智能驅動的ChatGPT已經成為企業優化運營和簡化復雜任務的流行工具。然而,最近的事件凸顯了通過該平臺分享機密信息的潛在危險。
令人不安的是,在不到一個月的時間里,就報告了三起通過ChatGPT泄露敏感數據的事件。韓國媒體報道稱,智能手機制造商三星(Samsung)主要半導體工廠的員工將機密信息(包括用于解決編程錯誤的高度敏感源代碼)輸入人工智能聊天機器人,引發了爭議。
源代碼是任何技術公司最嚴密保護的秘密之一,因為它是任何軟件或操作系統的基礎構件。而現在,如此寶貴的商業機密無意中落入了OpenAI的手中。
據知情人士透露,三星目前已經限制了其員工訪問ChatGPT的權限。
包括亞馬遜(Amazon)、沃爾瑪(Walmart)和摩根大通(JPMorgan)在內的其他《財富》500強企業集團,也遇到過員工不小心將敏感數據輸入聊天機器人的類似情況。
之前也出現過有關亞馬遜員工使用ChatGPT獲取機密客戶信息的報道,此事促使這家科技巨頭迅速限制了該工具的使用,并嚴厲警告員工不要將任何敏感數據輸入該工具。
“不完美”的模型:缺乏智慧的知識庫
人工智能驅動的數字體驗平臺Coveo的機器學習總監Mathieu Fortier表示,GPT-4和LLaMA等LLMs存在多個不完美之處,并警告說,盡管它們在語言理解方面很出色,但這些模型缺乏識別準確性、不變定律、物理現實和其他非語言方面的能力。
雖然LLM通過訓練數據構建了廣泛的內在知識庫,但它們沒有明確的真理或事實準確性概念。此外,它們很容易受到安全漏洞和數據提取攻擊,而且容易偏離預期的反應或表現出“精神錯亂的”特征——專業名稱為“幻覺”。
Fortier強調了企業面臨的高風險。其后果可能會嚴重破壞客戶的信任,并對品牌聲譽造成不可挽回的損害,導致重大的法律和財務問題。
緊跟其他科技巨頭的腳步,這家零售巨頭的科技部門沃爾瑪全球科技(Walmart Global tech)已采取措施降低數據泄露的風險。在給員工的一份內部備忘錄中,該公司指示員工在檢測到可能危及企業數據和安全的可疑活動后,立即屏蔽ChatGPT。
沃爾瑪的一位發言人表示,盡管該零售商正在基于GPT-4的功能創建自己的聊天機器人,但它已經實施了多項措施,以保護員工和客戶數據不被ChatGPT等生成式人工智能工具傳播。
該發言人表示,“大多數新技術帶來了新的好處,也帶來了新的風險。因此,我們會評估這些新技術,并為我們的員工提供使用指南,以保護我們的客戶、會員和員工的數據,這并不罕見。利用現有技術(如Open AI),并在其上構建一個更有效地與零售商溝通的層,使我們能夠開發新的客戶體驗,并改善現有能力?!?/p>
除此之外,Verizon和Accenture等其他公司也采取了限制ChatGPT使用的措施,Verizon指示其員工將聊天機器人限制在非敏感任務上,Accenture則實施了更嚴格的控制,以確保遵守數據隱私法規。
ChatGPT如何使用會話數據
更令人擔憂的是,ChatGPT會保留用戶輸入數據以進一步訓練模型,這引發了關于敏感信息可能通過數據泄露或其他安全事件暴露的問題。
OpenAI是流行的生成式人工智能模型ChatGPT和DALL-E背后的公司,最近實施了一項新政策,以改善用戶數據隱私和安全性。
從今年3月1日起,API用戶必須明確選擇共享他們的數據以訓練或改進OpenAI的模型。
相比之下,對于非API服務,如ChatGPT和DALL-E,如果用戶不希望OpenAI使用他們的數據,則必須選擇退出。
OpenAI公司在最近更新的博客中稱,“當您使用我們的非API消費者服務ChatGPT或DALL-E時,我們可能會使用您提供的數據來改進我們的模型。與我們共享您的數據不僅有助于我們的模型變得更準確,更好地解決您的具體問題,還有助于提高它們的總體能力和安全性……您可以通過填寫這張表格,填寫您的組織ID和與帳戶所有者關聯的電子郵件地址,來請求退出使用您的數據來改善我們的非API服務。”
這一聲明是在對上述風險的擔憂以及公司在處理敏感信息時需要謹慎的情況下發布的。意大利政府最近加入了這場爭論,在全國范圍內禁止使用ChatGPT,理由是擔心數據隱私和安全。
OpenAI表示,它從用于改進其人工智能模型的數據中刪除了任何個人身份信息,并且僅為此目的使用來自每個客戶的一小部分數據樣本。
政府警告
英國政府通信總部(GCHQ)情報機構通過其國家網絡安全中心(NCSC)發布了一份關于ChatGPT等大型語言模型(LLMs)的局限性和風險的警告。雖然這些模型因其令人印象深刻的自然語言處理能力而受到稱贊,但NCSC警告說,它們并非絕對正確,可能包含嚴重的缺陷。
根據NCSC的說法,LLM可以生成不正確或“幻覺”的事實,正如Google Bard聊天機器人的第一次演示所展示的那樣。它們也會表現出偏見和輕信,尤其是在回答引導性問題時。此外,這些模型需要大量的計算資源和大量的數據來從頭開始訓練,并且它們很容易受到注入攻擊和有毒內容創建的影響。
Coveo公司的Fortier表示,“LLM根據提示(prompt)與內部知識的內在相似性來生成對提示的響應。然而,鑒于它們沒有內在的內部‘硬規則’(hard rule)或推理能力,它們不可能100%成功地遵守不披露敏感信息的約束。盡管有努力減少敏感信息的生成,但如果LLM使用這些數據進行訓練,它可以重新生成這些信息。唯一的解決辦法就是不要用敏感材料來訓練這些模型。用戶還應避免在提示中向它們提供敏感信息,因為目前大多數服務都會將這些信息保存在它們的日志中。”
生成式人工智能安全和道德使用的最佳實踐
隨著企業繼續采用人工智能和其他新興技術,確保適當的安全措施來保護敏感數據并防止機密信息的意外泄露將至關重要。
這些公司采取的行動凸顯了在使用ChatGPT等人工智能語言模型時保持警惕的重要性。雖然這些工具可以極大地提高效率和生產力,但如果使用不當,它們會帶來重大風險。
會話式人工智能初創公司Got it AI的董事長Peter Relan建議稱,“最好的方法是將語言模型原始改進中的每一個新發展都納入到企業策略驅動的架構中,該架構將一個語言模型與用于防護的預處理器和后處理器結合起來,針對特定于企業的數據對它們進行微調,然后甚至還可以進行本地部署。否則,原始語言模型太強大了,有時在企業中處理是有害的?!?/p>
英偉達支持的對話式人工智能平臺Kore. ai的首席技術官Prasanna Arikala表示,未來,公司將有必要限制LLM訪問敏感和個人信息,以避免違規。
Arikala指出,“實施嚴格的訪問控制,如多因素身份驗證,以及對敏感數據進行加密,可以幫助緩解這些風險。此外,還需要定期進行安全審計和漏洞評估,以識別和消除潛在的漏洞。如果使用得當,LLM是很有價值的工具,但對于公司來說,采取必要的預防措施來保護敏感數據并保持客戶和利益相關者的信任至關重要?!?/p>
這些法規將如何演變還有待觀察,但企業必須保持警惕,保持領先地位。生成式人工智能在帶來潛在好處的同時,也帶來了新的責任和挑戰,技術行業需要與政策制定者一起努力,確保以負責任和合乎道德的方式開發和實施這項技術。