AI代理、AGI、ASI 和“推理”等人工智能流行術語真正的含義是什么
如果您曾參與過 AI 討論,無論是在研究、行業還是瀏覽網頁,您可能已經遇到過諸如AI 代理、AGI、ASI 和推理等流行術語被廣泛使用。但這些術語真的有意義嗎?還是它們只是助長了炒作周期和誤導性對話?
簡短的回答是:截至目前,其中一些術語具有明確的技術含義,而其他一些則更具推測性或誤導性。它們在公共言論中的使用方式很重要——因為當炒作超過現實時,它可能會對現實世界產生影響。
1.人工智能代理:功能性和有形性
讓我們從一個真正有意義的術語開始。
AI 代理是一種能夠感知環境、做出決策并采取行動以實現特定目標的系統。這一概念是 AI 研究的基礎,適用于從簡單的基于規則的機器人到復雜的強化學習系統等所有領域。
例如,谷歌的 DeepMind AlphaZero是一個經過訓練的 AI 代理,可以掌握國際象棋、將棋和圍棋。它會接收棋盤狀態,評估潛在動作,并根據學習到的策略選擇最佳行動。這是該術語的明確、實用的用法——無需大肆宣傳。
2.AGI:不斷滑動的移動目標
通用人工智能 (AGI)是指能夠執行人類所能執行的任何智力任務的人工智能。與當今的狹義人工智能(擅長翻譯、圖像識別等特定任務)不同,通用人工智能將靈活、適應性強,并且能夠在多個領域進行自主學習。
問題是什么?AGI 并不存在。
并且取決于你問的是誰,它可能是:
- 我們正在慢慢接近這個目標(根據 OpenAI 和 DeepMind 的說法)。
- 這是一個遙遠的夢想,更多的是關于進步而不是事件(根據Meta 首席人工智能科學家Yann LeCun 的說法)。
- 這是一個可能永遠無法實現的技術幻象(人工智能理論家加里·馬庫斯)。
Meta 首席人工智能科學家 Yann LeCun 對 AGI 的到來表示懷疑,稱 AGI 的出現不會是突然事件,而是一個漸進的發展過程。他強調,目前的人工智能系統,包括大型語言模型,還遠未達到人類水平的智能。
與此同時,《人工智能:一種現代方法》一書的合著者斯圖爾特·拉塞爾警示稱,對通用人工智能的熱潮可能會導致不可靠的人工智能系統過早部署——這是一種現實世界的風險,我們已經在有偏見的人工智能模型和產生幻覺的聊天機器人中看到了這種風險。
結論是,AGI 更像是一個不斷變化的目標,而不是一個具體的里程碑。
3.ASI:超級智能的 AI 幻想
如果說 AGI 只是推測,那么超級人工智能 (ASI)則完全是科幻小說(截至目前)。
ASI 指的是在所有領域(科學發現、創造力、社交智能、戰略規劃等)不僅匹敵人類智能,甚至超越人類智能的人工智能系統。從《終結者》到伊隆·馬斯克對人工智能末日的存在主義警告,人工智能霸主的場景都應運而生。
但問題是:沒有任何技術證據表明我們正在走向 ASI 的道路。
如果你問像Murray Shanahan(DeepMind)這樣的人工智能研究員,他會說我們對人類智能的了解還遠遠不夠,無法復制它,更不用說創造超越它的東西了。
圍繞 ASI 的炒作不僅具有誤導性,而且會分散注意力。它將人們的注意力從真正的、直接的 AI 風險上轉移開,例如:
- 人工智能偏見導致歧視性結果。
- 自動化取代了工人,而沒有足夠的政策回應。
- 錯誤信息通過人工智能生成的內容傳播。
關注假設的超級智能可以減輕公司和政策制定者解決這些緊迫問題的壓力。
4.人工智能“推理”:營銷成分大于現實
目前,人工智能話語中最大的誤稱之一就是聲稱 GPT-4 或 Gemini 等模型可以“推理”。
當今的人工智能從根本上來說屬于統計模式匹配,而非真正的推理。當人工智能系統“推理”時,它實際上是:
- 根據訓練數據做出高概率的猜測。
- 完成文本中的模式而不是得出合乎邏輯的結論。
- 不理解為什么答案正確或不正確。
例如,在 2023 年的 AI 基準測試中,大型語言模型在解決人類兒童可以解決的基本邏輯難題時遇到了困難。盡管它們生成的文本聽起來像是推理驅動的,但它們卻無法實現分布外泛化——這是真正智能的一個基本方面。
加里·馬庫斯(Gary Marcus)很好地總結了這一點:
“這些模型不具備推理能力,它們只是重復而已。”
所以下次有人告訴你人工智能會“推理”時,你要問:推理是什么樣的?如何衡量?
人工智能炒作對現實世界的影響
為什么這一切如此重要?因為語言塑造感知,感知推動政策、投資和公眾信任。
1. 錯誤信息和公眾困惑
當科技公司在營銷材料中大肆宣揚 AGI 和 ASI 時,公眾對人工智能實際能力的理解就會被扭曲。人們開始認為我們即將擁有自我意識的機器,而實際上,當今的人工智能甚至很難在不產生幻覺的情況下可靠地總結一份文件。
2. 承諾過多,交付不足
炒作會導致不切實際的期望——以及失望。投資者向無法立即實現目標的“AGI 初創公司”投入了數十億美元。政策制定者追逐科幻場景,而不是監管實際危害。
以IBM Watson為例,它曾被吹捧為將改變醫療保健行業的革命性人工智能。由于未能達到預期,該項目失敗了,留下了人們的質疑。
3. 政策和道德被邊緣化
有關人工智能監管的辯論政府經常陷入對 AGI 和 ASI 的長期擔憂,而數據隱私、偏見和算法責任等真正的道德問題仍未解決。
Stuart Russell警告稱,人工智能安全討論必須關注實際風險,而不是假設風險:
“超級智能 AI 是一個有趣的思想實驗,但真正的挑戰是確保當今的 AI 系統與人類價值觀相一致。”
行動呼吁:促進關鍵參與
為了了解復雜的人工智能術語及其含義,采取批判性視角至關重要:
- 明確定義:尋求與人工智能相關的術語的精確解釋,以了解其具體含義和局限性。
- 評估能力:評估人工智能系統實際上能做什么以及所聲稱能做什么,區分當前的功能、未來的能力和推測的潛力。
- 問題動機:考慮誰會從某些人工智能能力框架中受益,以及這些描述是否服務于營銷、資金或其他利益。
通過批判性地研究人工智能術語并質疑所呈現的敘述,我們可以促進更明智的公共討論,指導負責任的政策制定,并確保對人工智能的投資與真正的進步和社會福祉保持一致。