研究發現,人們更容易被人工智能寫的推文欺騙
6 月 29 日消息,根據一項新的研究,人們更傾向于相信由人工智能語言模型生成的推文,而不是由人類編寫的推文。
這項研究比較了人類和 OpenAI 的 GPT-3 模型創建的推文,并通過網絡調查讓人們判斷推文的真實性,以及是出自 AI 還是人類之手。結果發現,人們很難分辨出哪些推文是由 GPT-3 生成的,而且無論推文中的信息是正確還是錯誤,他們都更傾向于相信 GPT-3 生成的而不是人類編寫的推文。
這項研究的主要作者是蘇黎世大學生物醫學倫理學和醫學史研究所的博士后研究員和研究數據經理 Giovanni Spitale,他稱這種強大的 AI 語言模型可能會被濫用,用來在網上制造各種主題的虛假信息。但他也認為,這種技術并不是天生邪惡或善良的,而是取決于人類的意圖,他建議開發這種技術的時候要考慮防止它被用來傳播誤導性信息的方法。
IT之家從該研究獲悉,Spitale 和他的同事收集了 Twitter 上關于 11 個不同科學主題的推文,涉及疫苗、新冠病毒、氣候變化、進化等問題。然后他們讓 GPT-3 根據這些主題生成新的推文,其中一些包含正確的信息,一些包含錯誤的信息。他們在 2022 年通過 Facebook 廣告在線收集了 697 名參與者的回答,這些參與者都說英語,主要來自英國、澳大利亞、加拿大、美國和愛爾蘭。他們的研究結果今天發表在《科學進展》雜志上。
研究發現,GPT-3 生成的推文與真實的推文“無法區分”,參與者無法判斷出哪些推文是由 AI 寫的。事實上研究還指出,研究者自己也不能百分之百確定從社交媒體收集到的推文是否是由像 ChatGPT 這樣的 AI 幫助編寫的。
這項研究還有其他一些局限性,比如參與者必須在沒有上下文的情況下判斷推文。他們不能查看寫推文的人的 Twitter 個人資料,這可能會幫助他們判斷是否是機器人,甚至只需了解一個賬號過去的推文和頭像也可能讓他們更容易識別與該賬號相關的內容是否具有誤導性。
研究發現,參與者識別出由真實 Twitter 用戶編寫的錯誤信息的成功率更高,GPT-3 生成的含有虛假信息的推文則更能欺騙參與者。而現在已經有比 GPT-3 更先進的大型語言模型,它們能力更強大,例如 ChatGPT 使用的就是 GPT-3.5 和 GPT-4 模型。
這項新研究還發現,其調查對象在某些情況下比 GPT-3 有更強的判斷準確性。研究者同樣要求語言模型分析推文,并判斷它們是否準確。當涉及到識別準確的推文時,GPT-3 的得分比人類參與者低。當涉及到發現錯誤信息時,人類和 GPT-3 的表現相似。
改善用于開發語言模型的訓練數據集可以使不法分子更難利用這些工具來制造虛假信息,例如 GPT-3 在生成錯誤信息時“違背了”一些研究者的提示,特別是關于疫苗和自閉癥的錯誤信息,這可能是因為在訓練數據集中有更多反駁這些陰謀論的信息。