主流AI平臺擅自共享用戶個人信息 ,用戶掌控權嚴重缺失
AI平臺將用戶數據鎖定于模型訓練環節
根據Incogni的研究報告,包括Meta、谷歌和微軟在內的多家主流生成式AI和大語言模型(LLM)平臺正在收集敏感數據并與不明第三方共享,導致用戶對自身信息的存儲、使用和共享方式既缺乏透明度,也幾乎沒有任何控制權。
谷歌Gemini、Meta AI、DeepSeek和Pi.ai等平臺均未提供退出機制來阻止用戶輸入內容被用于AI模型訓練。一旦輸入個人或敏感數據,實際上無法從AI訓練數據集中刪除這些信息。盡管《通用數據保護條例》(GDPR)等法律賦予個人要求刪除數據的權利,但如何從機器學習模型中實際移除信息仍不明確。因此,許多公司目前既無義務也缺乏技術能力來事后刪除此類數據。用戶的聯系信息或商業機密可能在未經明確告知或同意的情況下,被永久嵌入模型訓練數據中。
數據收集行為全景掃描
隨著生成式AI日益融入日常生活,用戶往往不清楚這些工具收集了哪些個人數據、如何使用以及最終流向何處。研究人員從三個維度分析了主流AI平臺的數據實踐:用戶數據在模型訓練中的使用情況、平臺隱私政策的透明度、數據收集與第三方共享的范圍。
- Meta.ai和Gemini會收集用戶的精確定位數據和實體地址
- Claude根據其Google Play商店頁面顯示,會向第三方共享電子郵件、電話號碼和應用交互數據
- Grok(xAI)可能將用戶提供的照片和應用交互數據共享給第三方
- Meta.ai會與外部實體(包括研究合作伙伴和企業集團成員)共享姓名、電子郵件和電話號碼
- 微軟的隱私政策暗示用戶輸入內容可能被共享給涉及在線廣告或使用微軟廣告技術的第三方
- Gemini、DeepSeek、Pi.ai和Meta.ai很可能未提供退出模型訓練的選擇權
- ChatGPT在說明哪些輸入內容會用于模型訓練方面最為透明,并制定了清晰的隱私政策
即便用戶主動尋求解釋,相關細節也往往隱藏在零散的幫助頁面或用晦澀的法律術語書寫。Incogni發現所有被分析的隱私政策都需要大學水平的閱讀能力才能理解。
員工使用AI或致商業機密外泄
除個人隱私外,企業面臨的風險更為嚴峻。員工常使用生成式AI工具協助起草內部報告或通訊,卻未意識到這可能導致專有數據成為模型訓練集的一部分。這種保護機制的缺失不僅使個人面臨非自愿數據共享,還可能導致敏感商業數據在未來與其他用戶的交互中被重復利用,從而引發隱私、合規和競爭風險。
"多數人以為只是在與可信助手對話,并未泄露聯系信息或商業機密。"Incogni負責人Darius Belejevas指出,"實際情況更具侵入性,而企業并未讓用戶輕松理解數據的真實流向。用戶有權知曉哪些數據被收集、誰能查看以及如何阻止。目前這些答案往往難以尋覓,甚至根本不存在。"