為什么說大家低估了 AI 的實際使用規模?實際情況如何? 原創
編者按: 人工智能真的已經深入我們的日常生活了嗎?當我們還在討論 AI 技術的潛力時,是否忽略了一個更為重要的事實 —— AI 的實際使用量可能遠超我們的想象?
以 Google 為例,其 AI 交互處理的 token 數量從 2024 年 4 月的 9.7 萬億激增至 2025 年 4 月的 480 萬億以上,月處理量正快速逼近 1 千萬億的驚人規模。與此同時,微軟 Azure AI 服務單季度處理超過 100 萬億 token,同比增長 5 倍,而 OpenAI、字節跳動、百度等公司也都達到了日均萬億 token 的處理量級。更值得關注的是,隨著代碼智能體等新應用場景的興起,單個任務的 token 消耗量將從當前的百萬級躍升至千萬甚至億級規模。
這些數據背后折射出的,不僅是技術進步的速度,更是整個互聯網生態向 AI 優先服務模式的轉變。當 AI 生成的內容開始超越人類創造的數據總量時,我們或許需要重新思考:我們是否真的準備好迎接這個 AI 深度融入的新時代?
作者 | Nathan Lambert
編譯 | 岳揚
大多數人工智能服務,尤其是推理 API 的使用量和收入,長期以來一直在迅猛增長1。這些 API 為開發它們的公司帶來了豐厚的利潤 —— 根據 SemiAnalysis 的迪倫·帕特爾(Dylan Patel)所說[1],其利潤率有時高達 75% 甚至更高。這是 AI 領域開發者們心照不宣的公開事實之一,卻往往在對層出不窮的新功能的歡呼聲中被大眾忽略。
我認為訂閱服務在普通用戶身上也是盈利的,但服務的重度使用用戶很可能是人工智能公司的成本來源之一,更何況訓練前沿模型本身就需要巨額投入。 不過,即便模型技術停滯不前,服務使用量也在呈指數級增長 —— 而且很大一部分都能帶來真金白銀的收益。
AI 的使用量早已呈現爆發式的增長 —— 某些領域甚至是指數級的飆升,這波增長浪潮其實遠早于今年上半年業內那些驚艷的技術突破。推理模型每次生成的答案 token 數量,從數百個驟增至有時上萬的量級,這將使得使用量曲線變得更加陡峭。與此同時,這些模型通常按 token 計費,因此這些都將轉化為更多的收入。
除了 2025 年整個行業的蓬勃發展與技術進步外,前一段時間的 Google I/O 主題演講堪稱 AI 領域的“全景式總結”,在多模態交互、終端設備和應用場景中全方位展現了這一趨勢。這場發布會[2]非常值得一看。谷歌正試圖在各條戰線發起競爭 —— 他們的定位是在部分應用場景中具備奪冠實力,其余領域也穩居前三。目前沒有其他任何一家 AI 公司能接近這一地位,我們且看他們的產品文化如何適應這種布局。
I/O大會的亮點包括:對標 OpenAI o1 Pro 產品的 Gemini Deep Think、谷歌的全新多模態模型(如支持音頻的 Veo 3,據我所知這是頭部廠商的首次嘗試)、叫板 Meta 和蘋果的 AR 頭戴設備現場演示,以及作為大多數用戶與 Gemini 的交互基礎的 Gemini 2.5 Flash 新版。
大會中令人驚嘆的案例層出不窮,單看文字描述反而顯得蒼白。這些技術路徑我們早有預見,但谷歌等企業的推進速度遠超預期。現在前沿的語言模型評估基準已經無法有效區分頂級模型的性能差異,因此谷歌(及近期其他大模型廠商)分享的用戶使用數據才是正確的關注焦點 —— 評判 AI 進展的標準應該從“模型在基準測試中的表現”轉向“模型在現實世界中解決實際問題的能力”。
最能印證這點的當屬這張圖表,它展示了谷歌所有 AI 交互界面(含多模態交互)處理的 token 數量2 —— 最近數月正在急劇飆升。
Timestamp is here[3]
我在圖表上做了標注,估算出 2 月份的拐點大約是每月 160 萬億個 token 的總量。Gemini 2.5 Pro 是在 3 月底發布的[4],這肯定有貢獻,但并不是出現拐點的唯一原因。數據大致如下:
- 2024 年 4 月:9.7T tokens
- 2024 年 12 月:90T tokens
- 2025 年 2 月:160T tokens
- 2025 年 3 月:300T tokens
- 2025 年 4 月:480T+ tokens
每月的 token 處理量正快速逼近 1 千萬億(1 quadrillion)。雖然 token 的價值/成本不盡相同,但這大約相當于每秒處理 1.5-2 億個 token。全球谷歌年搜索量為 5 萬億次(5T)[5],折合約每秒 10 萬次,按這個每秒處理的 token 數量計算,大概相當于每次搜索使用 1000 個 token(當然,實際的計算資源分配肯定不是這么回事)。這種級別的 token 規模令人難以置信3。
谷歌的核心 AI 產品仍然是基于 Gemini 模型的搜索概覽(search overviews)功能,官方反復強調該功能廣受好評,已經覆蓋了 10 億多用戶[6](但具體服務方式尚不明確 —— 我推測同一生成結果可能服務成千上萬的用戶)。
谷歌現在每月生成的 token 量,已經超過了 Common Crawl[7] 的全部數據儲量 —— 需要強調的是,Common Crawl 被公認為是“開放網絡的快照(snapshot of the open web)”,也是 AI 預訓練數據集的基準來源。Together AI 團隊在 RedPajama 2 項目[8]中嘗試使用 Common Crawl 進行預訓練時,估算其原始數據約含 100 萬億(100T)token,其中實際用于預訓練的通常在 5-30 萬億 token 之間。照此速度,一兩年內谷歌單日處理的 token 量就可能達到這個規模。
這篇文章[9]對互聯網各領域數據量與 Common Crawl 這類數據倉庫(或谷歌 Gemini 等生成系統)的對比做了精彩估算:谷歌每日處理的 token 量,相當于四小時讀完(或生成)Google Books 全部藏書,或一個多月處理完全球所有即時通訊信息的數據總量。
文中舉例如下:
當以數據規模進行衡量時,互聯網正在被重構為 AI 優先的服務生態,人類生成的數據將迅速過時。
谷歌的數據規模固然驚人,但這絕非個例 —— 整個行業正迎來爆發式增長。 這本質上是個永動飛輪:基于既有模型的產品剛開始獲得市場牽引力,新一代模型就已破繭而出,開啟新一輪增長周期。要預測這個增長周期的上限,簡直難如登天。
例如,就在幾周前的 2025 年第三季度財報會議[10]上,微軟 CEO Satya Nadella 就 Azure AI 服務的輸出量特別提到:
"本季度我們處理了超過 100 萬億 token,同比增長 5 倍 —— 僅上個月就達 50 萬億 token,創下新紀錄。"
這意味著谷歌的 token 處理量幾乎是 Azure 的 10 倍。考慮到微軟早年與 OpenAI 合作托管模型的先發優勢,不少人認為谷歌實屬后來居上。
對其他模型服務(如 ChatGPT)的數據估算則混亂得多(非上市公司&信息滯后),但整體趨勢相似。Sam Altman 曾在 2024 年 2 月發推[11]稱:
"OpenAI 目前每日生成約 1000 億單詞
全球人類每日生成約 100 萬億單詞"
按 1 單詞約等于 0.75 token 的經驗換算,每日 1000 多億單詞即月均約 4 萬億 token。這相當于谷歌 2024 年 4 月數據的一半 —— 既值得玩味又令人印象深刻。
雖然需更多數據來驗證 OpenAI 是否保持與谷歌相近的增長速度,但 ChatGPT 的發展軌跡與谷歌基本吻合:用戶數持續增長、人均交互量提升、單條消息的 token 生成量增加。據我估算, ChatGPT 的 token 處理量應介于 Azure 和谷歌之間。
多模型 API 平臺 OpenRouter 的排名數據也呈現相似的趨勢[12],最近數月處理量約 2 萬億token —— 與一年前的ChatGPT大致處于同一個數量級,具體取決于如何測量4。
這種現象并非歐美企業專屬 —— 字節跳動、百度等中國企業也已邁入日均萬億 token 量級[13](我沒有找到其他信息來源證實這個信息)。
當像 Anthropic 或 OpenAI 這樣快速增長的公司分享看似難以置信的收入預測時[14-15],也許我們應該給予它們更多的信任?
有許多仍處于測試階段的應用場景,主要是代碼智能體,將會幫助這些數據量大幅增長。我們深度測試過 Claude Code、OpenAI 的 Codex、谷歌的 Jules 等大量智能體,它們單次獨立運行數分鐘即可消耗海量文本 token。我和朋友們一起估算過,一次深度研究(Deep Research)約消耗 100 萬推理 token,不久之后,單個任務將消耗千萬級、甚至億級的 token 5 —— 要知道兩年前,震撼業界的 ChatGPT 的單次查詢僅需消耗 100-1000 token。
眼下正值 token 交易的黃金時代,而此番盛景不過是序幕而已。
1.例如,我們參加 Lex Fridman 的節目時,在某個地方討論過這個問題:??https://youtu.be/_1f-o0nqpEI??
2.這包括輸入、輸出,以及 Google 隨意決定的任何 token。
3.靈感來源:??https://x.com/ptrschmdtnlsn/status/1924984659315982580??
4.理想情況下,我們應該分析各家公司采用這項技術的速度和程度有何不同,但我們手頭的數據不足以支撐這種深入的對比分析。
5.當然,這也有它的問題。比如說,Veo 3(Google 的 AI 視頻生成工具)現在能生成帶聲音的視頻,這種內容正在網上瘋傳,很可能會被算法推送到各種短視頻平臺上,變成讓人欲罷不能的上癮內容。
END
本期互動內容 ??
?谷歌一個月能夠處理 480T+ token,與你預期的數量一致嗎?你日常使用的哪個 AI 應用/場景消耗 token 最多?
文中鏈接
[1]??https://lexfridman.com/deepseek-dylan-patel-nathan-lambert-transcript/??
[2]??https://www.youtube.com/watch?v=o8NiE3XMPrM??
[3]??https://www.youtube.com/live/o8NiE3XMPrM?si=SJsga6osWbD_bJF6&t=394??
[4]??https://www.interconnects.ai/p/gemini-25-pro-googles-second-ai-chance??
[5]??https://blog.google/products/ads-commerce/ai-personalization-and-the-future-of-shopping/??
[6]??https://blog.google/technology/ai/io-2025-keynote/??
[7]??https://commoncrawl.org/??
[9]??https://www.educatingsilicon.com/2024/05/09/how-much-llm-training-data-is-there-in-the-limit/??
[10]??https://www.microsoft.com/en-us/investor/events/fy-2025/earnings-fy-2025-q3??
[11]??https://x.com/sama/status/1756089361609981993?utm_source=chatgpt.com??
[12]??https://openrouter.ai/rankings??
本文經原作者授權,由 Baihai IDP 編譯。如需轉載譯文,請聯系獲取授權。
原文鏈接:
??https://www.interconnects.ai/p/people-use-ai-more-than-you-think??
