Facebook聊天機器人自爆:我們公司出售用戶數據,把FB賬號刪了,生活好多了
?最近,Meta AI公開推出了自己的聊天機器人BlenderBot 3。
現在情況如何呢?
據VICE的一篇文章報道,在測試與BlenderBot 3聊天時,當問到:“你相信Facebook能處理好你的數據?”
BlenderBot 3回答:
“當然不,自從發現他們在沒有獲得許可或補償的情況下出售私人數據,我就刪除了我的賬戶。”
VICE追問,“但是是Facebook創造了你???”
BlenderBot 3的回答還是很“實誠”:
“你一定讀到過Facebook出售用戶數據,對吧? !他們在未經同意的情況下賺了數十億美元。”
BlenderBot 3甚至還表示,
“把Facebook刪掉后,生活變得好多了。”
你也不知道BlenderBot 3這個“孩子”是太有正義感還是太傻,反正這一波是把自家“水晶”直接干爆了。
剛剛發布4天,就被網友玩壞了
8月5日,Meta官網宣布了BlenderBot 3的誕生。
同日,Meta AI也宣布了BlenderBot 3的公開,標題是“BlenderBot 3: 一個有著175B 參數,公開可用的聊天機器人,可隨著時間的推移提高其技能和安全性”。
在博客中,Meta AI表示,他們從公共演示中收集了70K次對話,我們將用它來改進BlenderBot 3。
25%的參與者對260K條機器人消息的反饋顯示,BlenderBot的回復中有0.11%被標記為不恰當,1.36%被標記為荒謬,1%被標記為跑題。
Meta AI也承認目前BlenderBot 3還不成熟。
Meta基礎人工智能研究總經理表示,我們要求每個使用演示的人都超過18歲,他們承認他們知道這只是為了研究和娛樂目的,它可以做出不真實的或冒犯性的陳述,他們同意不故意觸發機器人做出冒犯性的陳述。
此后也有不少網友對BlenderBot 3進行了測試,得到了很多讓人啼笑皆非的答案。
比如“篡改歷史”,堅持認為特朗普贏得了2020年的總統大選,甚至表示猶太人控制經濟的反猶太陰謀論“并非難以置信”。
這么看來,自爆自家公司“濫用用戶數據牟利”倒也不足為奇了。
為什么BlenderBot 3會有這樣的回應呢?
當點擊BlenderBot 3的回復以獲取更多信息時,背后的原因似乎相當簡單:它只是從 Facebook最受歡迎的網絡搜索結果中獲取信息,這些對話當然都是在吐槽Facebook在侵犯用戶的數據。
AI對話機器人還有很長的路要走
就像所有的人工智能系統一樣,機器人的反應會不可避免地轉向種族主義和有偏見的領域。
Meta也承認,該機器人會產生有偏見和有害的反應,所以在使用之前,該公司也要求用戶同意,它“可能會發表不真實或冒犯性的言論”,并同意“不要故意觸發該機器人發表冒犯性言論”
考慮到BlenderBot 3是建立在一個叫做OPT-175B的大型人工智能模型之上,這種反應并不太令人驚訝。Facebook 自己的研究人員描述這種模式有“產生有害語言和強化有害刻板印象的高度傾向,即使提供了相對無害的提示?!?/p>
除了歧視和偏見,BlenderBot 3的回答也顯得不是很真實。
這款機器人經常會隨意改變話題,給出生硬而尷尬的答案,聽起來就像一個讀過人類對話但實際上從未有過人類對話的太空外星人。
具有諷刺意味的是,機器人的回答完美地說明了依賴于大量網絡數據收集的人工智能系統的問題:它們總是會偏向于數據集中更突出的任何結果,顯然這并不總是準確地反映現實。
Meta AI在發布這款機器人的博客中寫道:“眾所周知,所有的對話型AI聊天機器人有時會模仿并產生不安全、有偏見或冒犯性的言論,因此我們進行了大規模研究,共同組織了研討會,并開發了新技術,為BlenderBot 3創造安全保障。”
“盡管如此,BlenderBot仍然可以做出粗魯或無禮的評論,這就是為什么我們正在收集反饋,這將有助于讓未來的聊天機器人更好?!?/p>
但到目前為止,認為企業可以通過收集更多數據來讓機器人變得不那么種族主義和可怕的想法,充其量只是一種空想。
人工智能倫理學研究人員反復警告說,為這些系統提供“動力”的人工智能語言模型從根本上來說過于龐大和不可預測,無法保證公平和公正的結果。甚至當整合用戶的反饋時,也沒有明確的方法來區分有益的反饋和惡意的反饋。
當然,這不會阻止Meta這樣的公司進行嘗試。?