比人類更有說服力,AI被濫用成輿論操控隱形推手?
近年來,人工智能(AI)技術飛速發展,給人類社會帶來諸多便利。特別是大模型的飛速發展,對醫療、教育、交通等諸多領域帶來了深刻變革。
然而,如同硬幣的兩面,AI在給人類社會帶來諸多便利的同時,其濫用現象也逐漸浮出水面。從深度偽造虛假視頻擾亂視聽,到AI生成謠言在網絡瘋傳,每一次技術的不當使用,都在挑戰著社會的信任底線。而最近,蘇黎世大學被曝光利用AI機器人干預?Reddit討論的事件,更是將AI濫用問題推到了輿論的風口浪尖。
據外媒報道,蘇黎世大學的研究人員悄悄地進行了長達數月的實驗在Reddit的r/changemyview(CMV),使用AI生成的注釋來測試大模型的說服力。擁有380萬用戶的subreddit引發了關于有爭議觀點的辯論,但subreddit主持人表示,AI的回復超出了道德界限。
據了解,r/changemyview是Reddit最著名的辯論空間之一。用戶對跨越政治,文化和宗教的熱點問題發表意見,其他參與者通過邏輯論證進行反駁,若原發帖者被說服則授予?“Delta”?(Δ)?。2024年11月至2025年3月,蘇黎世大學的團隊部署了由GPT4o、Claude3.5?Sonnet、Llama?3.1驅動的AI機器人,并利用它們在reddit?r/changemyview子版塊中爭論觀點,旨在測試他們在改變用戶意見方面的說服力。
在四個月的時間里,研究團隊部署了至少13個不同的人工智能賬戶,在380萬成員的社區中產生了1700多條評論,都是非常個人化和情緒化的。研究人員承認,這些機器人被編程為分析原始帖子的Reddit歷史,以推斷個人特征,例如性別、年齡、種族等,并相應地定制回應。
最令人不安的是研究人員故意使用情緒化的人物角色。根據本文所查閱的文件,這些AI機器人假扮成專門從事虐待的創傷咨詢師、“反對黑人的命也是命的黑人等。另外,根據現已撤回發表的研究結果草案,這些AI生成的評論的說服率比人類評論高3-6倍。“個性化”方法,通過分析用戶的發布歷史來推斷性別、年齡和政治傾向等屬性,被證明是最有效的,成功率為18%。
Reddit的首席法律官Ben?Lee稱該項目?“在道德和法律層面上都存在嚴重錯誤”,并確認所有相關帳戶均已被禁止,并且正在考慮采取法律行動。而研究人員則認為,這項研究得到了他們大學道德委員會的批準,并聲稱它為人工智能如何被大規模濫用提供了有價值的見解。“我們認為這項研究的潛在好處遠遠超過其風險。”?他們在Reddit評論中寫道。
雖然這只是一項實驗,但暴露出的?AI?濫用風險卻令人不寒而栗。這些精心設計的AI機器人,如同隱藏在網絡背后的“影子辯手”,利用對用戶的精準洞察,通過偽裝身份、操控情緒的方式左右輿論走向。若這種技術被惡意利用,無論是用于商業競爭中的輿論操控,還是政治博弈中的虛假信息傳播,都將對社會秩序和公眾認知造成難以估量的破壞。此次實驗的影響也遠超學術范疇,它撕開了?AI?技術濫用的一角,讓公眾直觀看到當技術突破倫理邊界時,可能引發的信任危機。
通過這一事件不難發現,AI技術的濫用已從潛在風險演變為現實威脅。當算法能夠依據用戶行為數據精準構建身份畫像、模擬特定角色,如偽裝專業人士或制造立場沖突的極端人設,并通過定制化的情感化表達干預觀點時,網絡空間中真實交流的信任基石正面臨侵蝕,人們難以分辨對話對象的真實屬性,更無法確定觀點互動是否源于真誠地思考碰撞。
寫在最后:
值得注意的是,斯坦福最新發布的《2025人工智能指數報告》指出,根據AI事件數據庫(AI?Incidents?Database)統計,2024年AI相關危害事件達233起,創歷史新高,較2023年暴增56.4%。
面對AI濫用,既需構建涵蓋技術研發、應用場景、倫理審查的全鏈條治理框架,通過制度約束劃定?AI?介入社會互動的邊界;也需推動技術共同體與社會各界重新錨定技術倫理坐標,確保AI的發展始終服務于增進人類交流的真實性與有效性,而非成為操縱輿論、制造認知混亂的工具。這不僅是技術層面的規范問題,更是數字時代維系人類社會信任機制的必要課題。