硅基模型vs.碳基大腦:AI能否成為超越人類的超級預測者?
如果能精準預測未來,就能在生活中占盡先機,無論是預判房價漲跌,還是捕捉下一個產業風口,預測的魅力都無人可擋。隨著 AI 技術的蓬勃發展,一個核心問題開始引發思考:人工智能能否成為超越人類的超級預測者?
在這一思潮的推動下,預測領域正加速構建 AI 預測機器人。事實上,這類技術早就已經出現在金融市場,比如 DeepSeek就是憑借算法交易模型起家的。但目前業界的共識是:頂尖人類預測者仍全面領先于機器。
以專業預測平臺 Metaculus 為例,它定期舉辦季度預測錦標賽。最開始時賽事只允許人類參與,近年新增 AI 機器人組別。觀察2024 年三季度、四季度及 2025年一季度的預測結果,我們可以發現人類超級預測者優于機器。
不過 Metaculus CEO 德格?圖蘭(Deger Turan)指出一個關鍵趨勢:人類預測的能力基本穩定,而 AI 的進步肉眼可見,兩者的差距正在縮小。
能否優化AI的預測能力
預測能力蘊含著巨大價值:律師想預判對手是否接受和解,建筑項目要估算竣工時間,電影制片人想押中爆款劇本,甚至單身者都想知道約會對象更愛咖啡還是啤酒。毫無疑問,人人都想成為預測大師。
從技術本質看,AI 預測的邏輯并不復雜:通過海量數據訓練大模型,使其具備對未知場景的推演能力。預測已經形成獨特的知識體系,比如“基礎率”(某現象的歷史發生概率,以避免過度樂觀或悲觀的預測偏差)、“布里爾分數”(用于衡量概率預測準確性的評估指標)、“校準度”(模型預測的概率與實際事件發生概率之間的一致性)已經成為預測學的基石。人類將終極目標指向 “超級預測者”,它們的準確率遠超平均水平,預測結果具有持續可靠性。
2024 年 10 月,國際AI領域非營利組織人工智能安全中心(Center for AI Safety)宣稱,僅通過大語言模型抓取新聞就能實現 “超人級” 預測,但這一結論很快因 “數據污染” 崩塌,模型誤將本不該獲取的信息納入其中,導致結果無法復現。
相比之下,加州大學伯克利分校的方案更具參考價值,它的預測模型也是基于大模型開發的,但增加了許多限制,比如,不允許機器人自動運行,而是按特定順序執行系列任務。具體來說就是增加的特定框架,首先要求模型制定一系列問題,根據問題獲取相關新聞內容;第二步,新聞服務給出回應,大語言模型判斷哪些回應最實用;然后根據相關度最高的回應進行匯總。
實驗數據顯示,若直接調用大語言模型進行預測,不做結構化處理,其準確率經常接近甚至低于隨機猜測水平,這表明單純依賴大模型難以有效捕捉復雜邏輯關系。而經過結構化訓練后,AI 機器人的預測準確率顯著提升。
盡管近年來 AI 能力取得顯著進步,但在預測領域仍未能超越人類,更無法企及 "超級預測者" 水平。展望未來,預測模型將更趨 "結構化" 發展,人機協作的深度與廣度也將進一步提升。
預測的難點在哪里
開發 AI 預測工具的 FutureSearch 公司 CEO 丹?施瓦茨指出:“從學術層面看,至今沒有成果能超越加州大學伯克利分校的論文,而那篇研究已發布超一年。”在 AI 領域,一年時光足以見證技術迭代。這一現狀既印證了伯克利團隊的突破性,也暴露了 AI 預測的深層困境:語言模型在定量分析與邏輯推理上存在天然缺陷,面對復雜問題時,大模型的預測能力更糟糕。
但伯克利研究團隊仍保持樂觀。他們強調,盡管 AI 存在局限性,但從 ChatGPT 問世至今不過數年,當前 AI 預測能力已逼近人類平均水平。若能將專業預測概念深度植入 AI 系統,其表現完全有可能超越人類頂尖預測團隊。
回望歷史,人類本就是極不擅長預測的物種,無論是經濟危機還是技術變革,無數誤判早已證明這一點。
想擁有良好的預測能力,需要誠實面對錯誤,不斷汲取教訓,要不斷調整觀點,不能被新聞評論或者別人的討論干擾,還要對所有信息都給予恰當重視,這本來就反人性的。如果讓AI來處理,可能效果會更好。
幾年前,美國曾出版過一本名叫《超級預測》的書,作者是賓夕法尼亞大學心理學家Philip Tetlock,雖然本書曾引起熱議,但幾乎沒多少人認為有明確的預測策略存在。一個耐人尋味的現象是:當印巴沖突升級或中美關稅談判膠著時,鮮見 “超級預測者” 在媒體頭條發表觀點;在白宮政策制定過程中,也難覓他們的身影;就連最依賴預測的投資機構也極少將 “超級預測者” 納入決策鏈條。
如此現狀引出另一個問題:世界對人類超級預測者的需求并不強,但如果是由機器來預測呢,情況會不會改變?
從當前各大科技公司的研發方向看,"超級 AI 預測工具" 尚未成為重點研發領域。即便成功研發出強大的 AI 預測工具,如何獲取決策者的信任仍是一大難題。
現代大語言模型本質上是一個 "黑箱" 系統:當人們提出問題并讓其預測時,實際上無法知曉大模型是如何通過計算得出最終答案的。
未來,人類可能會要求 AI 對預測結果進行解釋,而決策者往往只會在解釋合理的情況下才采納其建議。當工具出現時,我們最開始肯定會保持懷疑態度,隨著時間推移,AI需要用令人信服的預測成績征服人類,然后才能改變人類的決策方式。(小刀)