編輯 | 伊風、云昭
出品 | 51CTO技術棧(微信號:blog51cto)
不知道大家有沒有發現:今年的奧特曼,突然安靜了很多。
不像 2024 年那樣頻繁出現在各種技術播客、大會、訪談里,甚至好多次OpenAI新發布也不見他的身影——這位 AI 圈最活躍的“CEO 網紅”,仿佛一下子就開啟帶娃模式、退居幕后了。
可偏偏,在這個 AI產品、Agent、大模型都在飛速迭代的時間點,我們又特別想知道他最近在想什么。
好消息是:他終于公開露面了!
在剛結束的 2025 Snowflake 峰會上,Sam Altman 作為重磅嘉賓,和 Snowflake CEO Sridhar Ramaswamy 以及 Conviction 創始人 Sarah Guo 進行了一場信息密度極高的爐邊對談。
短短二十分鐘的訪談,內容相當凝練、有料,干貨滿滿!
比如,他給 AI 創業者的忠告發生了變化,今年的主題是:“馬上行動。”
對于企業采用大模型,這是奧特曼首次果斷、鮮明的表示支持。
對于所有還在等待更新的 GPT-5 模型、采取觀望態度的企業老板、團隊主管們,奧特曼表示:與其等新模型,不如現在就開始。
“你會發現,那些率先下注、快速學習的企業,已經明顯領先于還在觀望的同行。”奧特曼說道。
Sridhar 點頭稱是:“不會有一個完美時刻等你一切就緒。”
此外,奧特曼給出的第二個判斷是:是關于智能體(Agent)的。他認為:“未來工作的基本單位,是AI Agent。”
Altman 形容,現在更像是你請了個AI實習生:你丟給它一個任務,比如“幫我找出我們官網漏掉的SEO優化點”,它自己去讀你的網站代碼、查搜索趨勢、掃你的GitHub和Slack聊天記錄,然后給你一個優化方案草案,你只需要點“同意”或“再改改”。
而 Altman 表示,這個“實習生”,很快就能變成能獨立負責項目的工程師。 也就是說,未來的工作,可能不是“你完成10個任務”,而是“你指揮10個智能體”,再去微調它們的成果。
最后,他還透露了自己心中的“完美模型”:
“體積很小,但擁有超人級別的推理能力,運行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。”
??下圖為現場截圖:
左起:Sam Altman、Sarah Guo、Sridhar Ramaswamy
以下是這場訪談的整理實錄,Enjoy:
1.模型可用性發生“質的飛躍”,AI創業者必須馬上行動
主持人Sarah:我們開場就進入正題:Sam,你會給正在應對 AI 變革的企業領導者們什么建議?
Sam Altman:我的建議是:馬上行動。現在還有很多猶豫不決,模型變化太快,大家都想著“等等下一個版本”或者“看看這兩個模型誰更好”,或者“這波趨勢最終會往哪走”。
但在技術領域,有個通用原則是:當技術快速迭代時,贏家往往是那些能夠迅速試錯、降低失敗成本、提升學習速度的公司。
我們目前觀察到的情況也印證了這一點:那些盡早下注、快速試驗的企業,表現明顯優于觀望和等待的同行。
Sridhar:我完全同意 Sam 的觀點。我還想補充的是:“好奇心”真的非常關鍵。我們對許多舊有流程的依賴其實已經不再成立,但很多人沒有意識到。如今很多平臺,比如 Snowflake,讓你以非常低的成本進行實驗,可以做出很多小測試,從中提煉價值,再持續優化。
我要再次強調 Sam 的話:能迭代得越快,越能從 AI 中獲益。因為他們知道什么有效、什么無效,他們能應對未來快速變化的局勢。
接下來的幾年,不會有一個“完美時機”讓一切塵埃落定。你只能在混沌中快速前進。
主持人Sarah: 那你的建議和去年相比,有哪些不同呢?
Sridhar:其實,我去年也會說一樣的話。尤其是“保持好奇”和“允許試錯”——
這兩點一直都很重要。關鍵是你要在那些“失敗成本很低”的場景中去試錯,而這樣的場景其實非常多。
不過,技術確實成熟得更快了。比如現在的 ChatGPT,已經能很好地結合網絡搜索來提供新鮮的信息,不再是那個“脫離實時數據”的工具。
不論是結構化數據還是非結構化數據,現在的聊天機器人技術已經可以投入主流使用了。當然,我們依然可以探索更遠的“智能體”能力邊界,但即便在遠離前沿的應用中,這項技術已經非常可用。
Sam Altman:有意思的是,我去年的觀點可能跟現在還真不太一樣。如果是對創業公司,我去年也會鼓勵他們早點上手,但對大型企業我可能會說:“可以小范圍試驗,但大多數情況下還不適合投入生產環境。”
但這個觀點現在變了——我們服務的大企業在這方面的增長是飛速的。他們現在真的在大規模使用我們的技術。我經常問他們:“是什么變了?” 他們會說:“一部分是我們摸索清楚了用法,但更大的變化是:現在這東西真的好用多了!”
它能做很多過去想都不敢想的事情。某個時間點,在過去這一年里,模型的“可用性”發生了質的飛躍。
更有意思的問題是:明年這個時候我們又會說出什么新觀點?
我預測到那時,我們會進入一個階段:你不僅可以用 AI 自動化業務流程或開發新產品,還能真正說出,“我有一個極其重要的業務難題,我愿意砸大量算力下去解決它。”
而模型將能完成過去需要團隊合作都無法完成的任務。
那些已經開始積累 AI 實戰經驗的公司,將在未來的競爭中占據優勢。屆時他們就可以說,“來吧 AI 系統,把我這個關鍵項目完全重構一遍。”
這是下一次質變的前奏:大量算力 + AI 推理能力 + 高難度問題。誰準備好了,誰就能邁出下一大步。
2.Codex讓我有了AGI的感覺!智能體明年將解決棘手的商業難題
主持人Sarah:既然你提到了推理能力、算力投入,以及智能體加入工作流程,那么關于“記憶與檢索”的問題就不能回避了——你覺得它們在這一輪 AI 變革中會起到什么樣的作用?
Sridhar:檢索技術一直是讓生成式 AI“貼地飛行”的關鍵,尤其在需要真實世界參考時。例如 GPT-3 時代我們就搭建了支持網頁搜索的大規模系統,可以在你問時事問題時拉取外部信息作為參考。
同樣地,記憶系統也非常重要。模型能“記住”你以前是怎么解決問題的、你和系統的互動記錄,這些都會極大提升它后續的使用體驗和效率。
我認為隨著模型被用于越來越復雜的任務,記憶和檢索的角色會變得更加關鍵。不論是提升交互質量,還是賦能更強的智能體行為,上下文越豐富,AI 的表現就越好。
主持人Sarah:Sam,你能不能給在座的每一位領導者一個參考框架,來思考:智能體(Agents)現在能做什么?明年又可能做到什么?
Sam Altman:我們最近剛發布的編程智能體 Codex,是我個人第一次有“AGI時刻”的感覺。你觀察它的工作方式——你給它一堆任務,它就在后臺默默執行。它真的非常聰明,可以完成那種“長周期、跨階段”的任務。
你只需要坐在那里,說“這個通過”、“那個不行”、“再試一次”。它甚至能連接你的 GitHub,未來它還可能可以觀看你的會議、查看你的 Slack 聊天、閱讀你所有的內部文檔。它做的事情已經非常令人驚艷了。
也許目前它還只是一個每天能工作幾小時的“實習生”,但不久之后,它會像一位能連續工作好幾天的“資深工程師”。而這類變化,不只會發生在編程領域,我們會看到智能體在很多工作類型中發揮類似作用。
現在已經有很多公司在用智能體來自動化客戶支持、推動銷售流程、甚至更多的業務方向。有些人已經在描述:他們的“工作”就是把任務分配給一群智能體,評估產出質量,分析它們如何協同工作,并給出反饋。
聽起來就像在帶一組還比較年輕的團隊成員。而且,這不是想象——它正在真實發生,只是目前還沒有完全普及。
明年,在一些有限的場景中,哪怕是很小的程度,我們將開始看到智能體真的能幫助人類發現新知識,或者解決那些非常復雜的商業問題。
目前的智能體主要還能處理的是:重復性的腦力勞動,短時間周期內、低層級的認知任務。但隨著它們處理的任務變得更長線、更復雜——某一刻,我們就會迎來“AI 科學家”出現的時刻。一個能自主發現科學的新型智能體。
那將是世界性的重大時刻。
主持人Sarah:你剛才說 Codex 和編程智能體的體驗是你第一次有“AGI實感”的時刻。那我就必須問了:你現在是如何定義 AGI(通用人工智能)的?我們離它還有多遠?它對我們的意義是什么?
Sam Altman:我想,如果你能回到過去,哪怕只回到五年前……
主持人Sarah:那幾乎是 AI 的“黑暗時代”。
Sam Altman:其實,那段時期也非常有趣。如果我們回到整整五年前,我可能記得不太清,但應該就在我們推出 GPT 的前夕。那時候,世界還沒見過真正強大的語言模型。
如果你能回到那個時間點,然后給人們展示今天的 ChatGPT,甚至不提 Codex 或其他產品,就光是 ChatGPT,我想大多數人會說:“這不就是 AGI 嗎?”
我們人類非常擅長“調整自己的預期”,這其實是人性中非常美好的一點。
所以,我認為“AGI 究竟是什么”這個問題,本身并不重要。每個人對它的定義都不一樣,同一個人也會在不同時間給出不同定義。
真正重要的是:我們過去五年看到的 AI 年年飛躍的進展速度——很可能還會持續五年,甚至更久。
你說 AGI 的“勝利點”會在 2024、2026 還是 2028,其實沒那么關鍵;你說超級智能的里程碑是在 2028、2030 還是 2032,也都沒關系。
重點是:這是一條又長又美麗、令人震驚地平滑的指數曲線。
對我來說,一個能自主發現新科學的系統,或者一個讓全世界科學發現速度翻幾倍的工具系統,已經可以滿足我對 AGI 的全部標準。
當然也有人堅持,AGI 必須能自我改進;也有人覺得,像 ChatGPT 搭配記憶功能的版本,已經很像 AGI 了。
主持人Sarah:確實,從一些早期測試,比如圖靈測試來看,ChatGPT 已經達標了。
那我們回到Sridhar,你還記得你第一次用 OpenAI 模型做搜索是什么時候嗎?
Sridhar:你當時其實用的是 GPT-3 的 Playground,在做一些小實驗。我們后來也接入了 API,但那時還不允許我們用完整的 GPT-3 模型。
我們就自己倒推:怎么用 70 億或 100 億參數的模型,來做到相似的效果。
對我來說,第一次“眼前一亮”的,是看到 GPT 真正解決了一個難題:抽象式摘要(abstractive summarization)。
也就是:把一篇 100 字的博客內容,壓縮成三句話去描述它。這個任務非常難,人類都覺得棘手。但這些模型突然間就能做到了。
那一刻我意識到,如果它能在整個網頁語料庫上做這種事情——再配合能判斷哪些頁面值得看的搜索引擎能力——那就是搜索引擎的新時代了。
我記得當時心里就想:哇,這玩意,真有力量。而且后來它的表現只會越來越好。
主持人Sarah:在你作為創業者或 CEO 的過程中,有沒有哪個節點讓你突然意識到,“哇,現在一切都是搜索,或者說是‘搜索+’”?我自己雇過 Neva 的前員工,當時的理念也是:這個時代的一切,都是關于搜索的。你是什么時候有這種想法的?
Sridhar:這個問題其實是關于“設定上下文”的——當你開始使用這些模型,或者思考某個問題的時候,你會意識到:我們需要一種機制,來縮小視角的范圍,讓模型聚焦在你想處理的內容上。
這是一種非常強大、也具通用性的技巧。你看現在很多微調和后訓練技術,其實背后邏輯是類似的:拿一個非常強大的模型,為它提供上下文,告訴它哪些信息是相關的、哪些是無效的,然后用這個方法來提升模型的輸出質量。
我認為這更像是一種通用的思維方式,而不僅僅是某個工具。你想實現某種結果,關鍵是要把“上下文”設定好。
上下文是無限的,人類靠“注意力”機制來解決這個問題——我們聚焦某個點。我把搜索看作是為模型設定注意力焦點的一種工具。
主持人Sarah:你同意 Sam 的看法嗎?也就是我們正處在一條“指數級增長的能力曲線”上?還是說你有一個自己認同的 AGI 定義——一個對你或客戶來說更重要的標準?
Sridhar:我覺得這會變成一個哲學性很強的辯論。比如說,有個比喻是:“潛水艇到底算不算在游泳?”某種意義上這聽起來有點荒謬,但從另一個角度看,它當然是在“游”。
所以我也把這些模型看作擁有極其驚人的能力。任何一個關注未來趨勢的人看到這些模型的表現,可能都會說:“這已經是 AGI 了。”
但正如 Sam 提到的,我們現在說的這些話,也許到 2025 年時又會覺得不值一提。
真正讓我驚嘆的,是進展的速度。我真誠相信,這個進程會帶來許多偉大的成果。
這有點像,我們如何看待一臺“還不錯的計算機”可以戰勝世界上所有的國際象棋高手——這真的重要嗎?
并不重要。我們依然有很多人仍然在下棋,而且他們仍然非常擅長。
所以我覺得關于“定義”的爭論其實沒那么關鍵。現在的圍棋也比以前更流行了。我們會從這條路徑中學到很多東西,但“那個具體的時刻”并不是重點。
3.完美模型:輕量、強推理、可調用所有工具
主持人Sarah:我個人有個直覺:當人們在問 AGI 的時候,其實很多人真正想問的是“意識”,只是他們沒把問題說清楚,或者說只有一部分人會明確表達那樣的問題。你之前說這更偏哲學,所以我想問問你:你們內部已經在訓練下一代模型,看到別人還看不到的能力,從產品角度、公司運營角度,有哪些新的“涌現能力”是正在改變你們的思維方式的?
Sam Altman:是的,未來一年或兩年發布的模型將會令人驚嘆。我們面前還有很大的進步空間。
就像 GPT-3 到 GPT-4 帶來的跨越一樣,許多企業將可以做到以前根本不可能做到的事。比如我們剛才聊到的,如果你是一家芯片公司,你可以說:“幫我設計一款比我們現有方案更好的芯片”;或者你是一家生物科技公司,你可以說:“這個病我搞不定,你來解決。”
這些都不再遙不可及。
這些模型有能力理解你能提供給它的全部上下文,連接所有工具和系統,然后深入思考,進行極其出色的推理,并給出有說服力的解決方案。
它們的穩健性也在提升,我們可以越來越放心地讓它自主執行復雜任務。
坦白說,我以前沒想過它們會來得這么快。但現在真的感覺……非常接近了。
主持人Sarah:那你能不能給大家一點直覺:未來哪些“知識”是 AI 能掌握的?哪些是還在邊界上的?我想象中的“核心智力”是,我也算挺聰明的,但我腦子里也沒有完美的物理模擬器——所以我們怎么判斷 AI 還能進化多遠?
Sam Altman:我自己比較喜歡的一個思考框架是這樣的:這不是我們馬上就要發布的東西,但從理念上說,我們追求的是這樣一個模型——體積很小,但擁有超人級別的推理能力,運行速度極快,有一萬億 tokens 的上下文窗口,并能訪問你能想象的所有工具。
所以它到底“知不知道某個具體知識點”,其實變得沒那么重要。
用這些模型作為數據庫是荒謬的——它們是又慢又貴還不準確的數據庫。但驚人的是:它們可以進行推理。
你可以把一個企業或個人生活的所有上下文信息都“扔進去”,再把需要的物理模擬器或其他工具整合進來——你能做的事就變得非常了不起。
而我們現在,就是在向這個方向邁進。
主持人Sarah:太震撼了。我想問一個更具假設性的問題:
如果你手上有現在 1000 倍的算力——原本我想問“無限算力”,但那太夸張了——如果是 1000 倍,你會用它做什么?
Sam Altman:我覺得,最“元”的回答(雖然我之后會給一個更實用的),可能是這樣的:我會請你們投入所有力量去推進 AI 研究,開發出更優秀的模型,然后再問那個更強的模型,我們該怎么利用這些算力。
主持人Sarah:直接讓它來解決“你最難的問題”。
Sam Altman:我認為這其實是最理性的做法。
主持人Sarah:這說明你是真的相信它能給出答案。
Sam Altman:我覺得更實用的回答是這樣的: 我們現在在 ChatGPT 內部、以及企業用戶中,已經看到很多案例表明——測試時使用更多算力,確實能帶來真實的收益。
比如你讓模型“多想一會兒”、或者對一個復雜問題多嘗試幾次,就有可能得到明顯更好的答案。
所以,如果一家企業說,“我要在每一個難題上都加大 1000 倍的算力”,他們真的可能會得到一些令人驚艷的結果。
當然,你不會真的這么做,也沒有 1000 倍的算力。但現在這種能力已經變得可行,說明我們可以嘗試的一件事就是:
用“冪律法則”的方式去看待算力價值——對于最難、最有價值的問題,愿意投入更多算力去嘗試,可能就能獲得突破。
主持人Sarah:那Sridhar,你會不會也對 Snowflake 做一樣的事?你是數據基礎設施、搜索優化、企業系統方面的專家,現在掌管 Snowflake。如果給你一個超級難題,你也會直接丟給算力處理嗎?
Sridhar:我覺得這確實是個很酷的應用場景。不過讓我換一個角度回答,跳出我們每天生活的科技圈來說:
你知道有個叫 Arnold 項目 的研究嗎?它有點像我們 20 多年前進行的 DNA 測序項目,不過這次的研究對象是 RNA 表達機制。結果發現,RNA 實際上控制著我們身體中蛋白質的工作方式。
如果我們能徹底搞清楚 RNA 是怎么調控 DNA 表達的,那很可能就能攻克大量疾病,對整個人類社會來說是一次巨大的飛躍。
所以,用類語言模型去做這類 RNA 研究項目,就像當年用超級算力破解人類基因組一樣——這會是一個非常酷的應用方向,如果你真的能動用大量算力的話。
主持人Sarah:真的很振奮人心,而且這確實是人類面臨的最大問題之一。
感謝你們(參與訪談)。