ChatGPT的危險之處:你永遠不應該告訴AI機器人的五件事
但這個征服世界的大型語言模型聊天機器人被描述為一個“隱私黑洞”,人們擔心它處理用戶數據的方式,這甚至導致它在意大利被短暫封禁。
它的創造者OpenAI毫不掩飾這樣一個事實:任何輸入的數據都可能不安全。這些數據不僅可能被用于進一步訓練其模型,從而可能暴露給其他用戶,而且還可能被人工審核,以檢查其是否符合使用規則。當然,任何發送到云服務的數據都只能和云服務提供商的安全保障水平一樣安全。
這意味著輸入到ChatGPT中的任何數據都應被視為公開信息。考慮到這一點,有幾件事是絕對不應該告訴它——或任何其他基于公有云的聊天機器人的。讓我們來看看其中的一些:
違法或不道德的要求
大多數AI聊天機器人都設有保障措施,以防止它們被用于不道德的目的。如果你的問題或請求涉及可能違法的活動,那么你可能會陷入麻煩。向公共聊天機器人詢問如何犯罪、進行欺詐活動或操縱他人采取可能有害的行動,絕對是壞主意。
許多使用政策都明確規定,提出非法要求或試圖利用AI進行非法活動可能會導致用戶被報告給相關部門。這些法律可能因地區而異。例如,中國的AI法律禁止利用AI破壞國家權威或社會穩定,而歐盟的AI法案規定,看似真人但實際上是AI生成的“深度偽造”圖像或視頻必須明確標注。在英國,《網絡安全法案》規定,未經同意分享AI生成的色情圖像屬于刑事犯罪。
輸入非法材料或可能對他人造成傷害的信息請求,不僅是道德上的錯誤;還可能導致嚴重的法律后果和聲譽損害。
登錄名和密碼
隨著代理型AI的興起,我們中有越來越多的人將使用能夠連接和使用第三方服務的AI。為了做到這一點,它們可能需要我們的登錄憑據,然而,將登錄信息提供給它們可能是一個壞主意。一旦數據進入公共聊天機器人,我們對它將如何處理這些數據就幾乎失去了控制,并且已經有用戶輸入的個人數據在回應其他用戶時被泄露的案例。顯然,這可能會成為隱私噩夢,因此,除非你確定你正在使用一個非常安全的系統,否則最好避免任何涉及向AI提供用戶名和賬戶訪問權限的交互。
財務信息
出于同樣的原因,最好不要將銀行賬戶或信用卡號碼等數據輸入到GenAI聊天機器人中。這些數據只應輸入到用于電子商務或網上銀行的安全系統中,這些系統具有內置的安全保障,如加密和數據處理后自動刪除。聊天機器人沒有這些安全保障。事實上,一旦數據輸入,就無法知道它會被如何處理,并且輸入這些高度敏感的信息可能會使你暴露于欺詐、身份盜竊、網絡釣魚和勒索軟件攻擊的風險之中。
機密信息
每個人都有責任保護其負責的敏感信息的安全。其中許多責任是自動產生的,例如專業人士(如醫生、律師和會計師及其客戶)之間的保密責任。但許多員工也對其雇主負有默示的保密責任。分享業務文件,如會議筆記和紀要或交易記錄,可能構成分享商業秘密和違反保密義務,就像2023年三星員工涉及的事件那樣。因此,無論將所有這些信息一股腦地輸入到ChatGPT中以獲取其能挖掘出的何種見解有多么誘人,除非你確定這些信息可以安全共享,否則這不是一個好主意。
醫療信息
我們都知道,向ChatGPT詢問并讓它充當醫生來診斷醫療問題可能很誘人,但一定要極其謹慎,特別是考慮到最近的更新使其能夠“記住”甚至從不同的聊天中整合信息以更好地了解用戶。這些功能都沒有任何隱私保障,所以要清楚,我們實際上對輸入的信息會發生什么知之甚少。當然,這對于處理患者信息的醫療相關行業來說更是如此,它們可能面臨巨額罰款和聲譽損害的風險。
總結
與我們上傳到互聯網上的任何東西一樣,最好假設它永遠不會保持私密性。因此,最好不要透露任何你不希望全世界都知道的事情。隨著聊天機器人和智能體在我們的生活中扮演越來越重要的角色,這將成為一個更加緊迫的問題,而教育用戶了解相關風險將是提供此類服務的任何人的重要責任,然而,我們也應該記住,我們有責任保護自己的數據并了解如何確保其安全。