OpenAI 公布2024選舉虛假信息打擊計劃
據(jù)統(tǒng)計,2024 年預計將有 50 多個國家舉行大選,虛假信息的威脅成為人們關注的焦點。
人工智能聊天機器人 ChatGPT 和圖像生成器 DALL-E 的開發(fā)商 OpenAI 近日宣布了一項新的措施,以防止在今年大選之前再次出現(xiàn)虛假信息濫用和誤導事件。
本周一(1月15日),該公司宣布正在與美國歷史最悠久的無黨派公職人員專業(yè)組織——全美國務卿協(xié)會(NASS)合作,防止 ChatGPT 在 11 月美國總統(tǒng)大選前向用戶輸出一些錯誤信息。
例如,當被問及有關選舉的問題時,如在哪里投票,OpenAI 的聊天機器人將引導用戶訪問美國投票信息的權威網(wǎng)站 CanIVote.org。該公司認為,這項工作的經(jīng)驗教訓將為我們在其他國家和地區(qū)的工作提供借鑒。
利用加密水印打擊深度偽造
為了防止深度偽造,OpenAI 還表示將對其最新版人工智能圖像生成器 DALL-E 3 生成的圖像實施內容出處和真實性聯(lián)盟(Coalition for Content Provenance and Authenticity,C2PA)的數(shù)字證書。
C2PA 是聯(lián)合發(fā)展基金會(Joint Development Foundation)的一個項目,該基金會是一家總部位于華盛頓的非營利組織,其主要舉措是內容真實性倡議(CAI)和起源項目,通過實施加密內容出處標準來應對數(shù)字時代的虛假信息和操縱行為。
包括 Adobe、X 和《紐約時報》在內的幾家大公司都是該聯(lián)盟的成員,并積極支持該標準的制定。
OpenAI 表示,它正在試驗一種出處分類器,這是一種用于檢測由 DALL-E 生成的圖像的新工具。據(jù)其內部測試顯示,即使圖像經(jīng)過常見類型的修改,早期結果也很有希望。他們計劃將其提供給第一批測試者--包括記者、平臺和研究人員--以征求反饋意見。
谷歌 DeepMind 也開發(fā)了類似的工具,利用 SynthID 對人工智能生成的圖像和音頻進行數(shù)字水印處理。Meta 也在嘗試為其圖像生成器開發(fā)類似的水印工具,不過馬克-扎克伯格的公司很少分享相關信息。
OpenAI 稱在發(fā)布新系統(tǒng)之前會對其進行紅隊測試,讓用戶和外部合作伙伴參與反饋,并建立安全緩解措施,以降低潛在的危害。
打擊虛假信息具有挑戰(zhàn)性
基于人工智能的文本分析平臺 Copyleaks 的聯(lián)合創(chuàng)始人兼首席執(zhí)行官阿隆-亞明(Alon Yamin)在接受 Infosecurity 采訪時表示十分鼓勵 OpenAI 致力于打擊虛假信息的行為,但實施起來可能具有挑戰(zhàn)性。
他表示,今年的大選被認為是近代史上最大的選舉年之一,不僅是在美國,在全世界范圍內,人們都非常擔心人工智能會被濫用于政治活動等,這種擔心是完全有道理的。但正如我們多年來在社交媒體上看到的那樣,由于用戶群規(guī)模龐大,這些行動可能難以實施。
在英國,下一次大選應在 2024 年年中至 2025 年 1 月之間舉行,信息專員辦公室(ICO)于 1 月 15 日啟動了關于生成式人工智能的系列咨詢。