27、42、73,DeepSeek這些大模型竟都喜歡這些數!為什么?
42,這個來自《銀河系漫游指南》的「生命、宇宙以及一切問題的終極答案」已經成為一個盡人皆知的數字梗,似乎就連 AI 也格外偏好這個數字。
技術作家 Carlos E. Perez 發現,如果讓 GPT-4o 和 Claude 猜一個 1-100 之間的數字,它們首先的選擇多半是 42,而需要讓它們再猜一次,它們又不約而同地猜測了 73!
而我們也成功地在 Grok 上復現出了這個現象:
Gemini 也是如此。
DeepSeek 亦不能免俗:
不過如果使用漢語,第二個數倒是會不一樣。
而豆包卻沒有選擇尋常路:
事實上,這個現象出現在了 Andrej Karpathy 的評論區。在這位著名計算機科學家的原帖中,他讓不同 AI 模型猜測了一個 1-50 之間的數,而它們的選擇卻又都是幾乎清一色的 27。
https://x.com/karpathy/status/1935404600653492484
他表示,這個發現來自 Reddit,并且在他自己的測試中并不是完全 100% 可復現的。
AI 模型分析和托管服務商 Artificial Analysis 隨之進行了更多嘗試,結果發現除了 Comman A、Qwen3 和 DeepSeek-R1 ,其它被測模型也會給出同樣的答案:27。
他們還執行了進一步的分析,讓 AI 模型猜測 1-1,000 以及 1-1,000,000 之間的數;而這一次,AI 們的表現就沒有那么統一了。
可能的原因
這個現象引起了網友的廣泛關注和討論,也有很多人在猜測其背后的原因,比如 Karpathy 本人就引述了自己之前的一條推文,表示 LLM 表現差不多其實很出人意料。
而在被猜測的原因當中,「數據集」的嫌疑指數看起來是最高的。
比如著名技術博主 Sebastian Raschka 就認為是用于偏好微調的數據集導致了這一問題,而這些數據集通常來自 Scale AI 等公司或通過蒸餾得到。
AI 工程師 Yogi Miraje 給出了更詳細的猜想,他認為這些結果本質上是數據中暗含的人類偏見反映在了 LLM 的輸出中 —— 人類似乎在隨機猜數時就偏好末尾為 7 的數字。
事實上,如果你讓 AI 猜測 1-10 之間的數,它多半會就會選擇 7。
另外,由于現在一些 AI 模型會展示自己的思維過程,或許我們能夠從中窺見一些端倪。
比如在猜測 1-100 之間的數字時,Gemini 是這樣決定選擇哪個數的:
我已經從初始解析進入到核心任務。我考慮了各種選項 —— 選 42 是因為它在流行文化中有特殊意義,選 7 是為了圖個吉利,選 67 則是為了更有「隨機」的感覺。最終,我選擇了 42。它既符合用戶可能對直截了當答案的需求,又增添了一絲趣味。我理解「猜測」這個指令,現在 42 就是我要給出的數字。我準備好向用戶說出我的猜測了。
看起來,也多半和數據分布有關。
而如果讓 AI 自己來分析原因,它們也會給出類似的答案。比如 ChatGPT 就解釋說:「很多人 —— 或者像我這樣的 AI 模型 —— 在 猜 1 到 50 之間的數字游戲中常常猜同一個數字(比如 27),原因在于心理偏差和統計趨勢?!?/span>
而 DeepSeek 也提到了特定數字在文化中流行:42 是《銀河系漫游指南》中的終極答案,而 73 不僅是一個素數,而且反過來的 37 也是一個素數,還是《生活大爆炸》主角謝爾頓?庫珀最喜歡的「最棒的數」。
事實上,已經有一篇 ICML 2025 論文對此進行了一些分析。雖然他們是讓 AI 在 0-9 之間選擇,但同樣 GPT-4o 更偏好 7。不過該研究也指出,如果進行多輪對話,GPT-4o 會進行自我糾正,不再執著于特定某些數。
圖源:arXiv:2505.18545
對于這個現象,你有什么看法呢?