紐約時報作家被AGI「洗腦」!AI橫掃奧數金牌、編寫95%代碼,人類卻毫無準備
一覺醒來,離AGI又近了一步。
紐約時報專欄作家Kevin Roose,發帖表示自己被AGI「洗腦」了,現在對AGI深有感觸。
強人工智能即將到來,但人類尚未做好準備。
不論是樂觀主義者,還是悲觀主義者,Kevin Roose提出了邁向AGI進展的三個論點。
他相信,在過去的幾年里,AI系統已經在多個領域開始超越人類并且AI每天都更聰明。
而且很快——可能在2026年或2027年,但也可能就在今年——AI公司將會宣稱他們已經創造了AGI。
這不是漸進式的改進,而是顛覆性的飛躍。
為AGI做準備,最佳時機就是現在
AGI,通常被定義為——能夠完成幾乎所有人類可以執行的認知任務的通用型AI系統。
Kevin Roose相信,那些堅稱所有進展只是「煙霧彈」,并否認AGI可能性的頑固AI懷疑論者,不僅在觀點上是錯誤的,而且還給人們一種虛假的安全感。
無論你認為AGI對人類來說是好事還是壞事——坦白講,現在下結論還為時尚早——它的到來提出了重要的經濟、政治和技術問題,而我們目前還沒有找到答案。
Kevin認為,為AGI做準備的最佳時機,就是現在。
這一切,聽起來可能有些瘋狂。
但Kevin并不是滿懷幻想的未來主義者,也不是炒作AI投資組合的投資人,更沒有吃了太多「毒蘑菇」然后看完了《終結者2》。
作為一名記者, 他花了大量時間與構建強AI系統的工程師、為AI提供資金的投資人以及研究AI影響的學者交談。
而在這個過程中,他逐漸意識到,目前AI領域正在發生的事情,比大多數人所理解的要更重大。
在AI初創公司云集的舊金山,人們談論著「感受AGI」。
而打造比人類更聰明的AI系統,已經成為硅谷巨頭的明確目標。
每周,從事AI研究的工程師和創業者告訴他,巨變——顛覆性的、前所未有的變革——已經近在咫尺。
去年剛剛離開OpenAI、獨立的AI政策研究員Miles Brundage,認為AGI可能會在十年內誕生。
在美國除了灣區之外,很少有人聽說過AGI,更別提為其到來做準備了。
而在媒體新聞業中,那些認真對待AI進展的記者,仍有可能被嘲笑為行業代言人的風險。
盡管如今AI系統已經在諾貝爾獎級別的科研突破中發揮作用,盡管每周有4億人使用ChatGPT,但大多數人在日常生活中接觸到的AI,依然只是個煩人的存在。
但凡看到AI生成的低質量內容充斥著社交媒體動態,或者與笨拙的客服機器人打過交道,就能理解他們的想法:「這玩意兒就要統治世界了?」
曾經,Keinv也對這種想法嗤之以鼻。但后來,他意識到自己錯了。
有幾件事讓他開始更加嚴肅地看待AI的進步。
Hinton奧特曼AI大佬拉響警報
當今AI行業最令人不安的一點是,那些最接近這項技術的人——領先AI實驗室的員工和高管們——往往也是對AI進步速度最感到擔憂的人。
這種情況,相當罕見。
回想2010年,當Kevin報道社交媒體崛起時,Twitter、Foursquare或Pinterest的內部人士并不會警告他們的應用可能引發社會混亂。
小扎也沒有測試Facebook,也沒有考慮它是否能被用于制造新型生物武器或發動自主網絡攻擊的可能性。
但今天,那些掌握最前沿AI技術的人——那些正在研發強AI,并能接觸到更先進系統的專家——卻在告訴大家,巨變即將到來。
各AI巨頭正在積極為AGI的到來做準備,并研究AI可能帶來的潛在風險,比如它們是否具備策劃陰謀或欺騙能力,以應對它們變得更強大、更自主的未來。
OpenAI首席執行官奧特曼曾寫道:「通向AGI的系統已經浮現。」
Google DeepMind首席執行官Demis Hassabis表示,AGI可能還需要三到五年的時間。
Anthropic首席執行官Dario Amodei(雖然他不喜歡使用「AGI」這個術語,但認可其基本概念)上個月說,他認為距離出現「在幾乎所有領域都比人類更聰明的AI系統」只有一到兩年的時間。
或許,應該對這些預測持保留態度。
畢竟,AI公司的高管們有可能從夸大AGI的熱度中獲利,因此他們可能有動力夸大進展。
但許多獨立專家——包括全球最具影響力的AI研究者Geoffrey Hinton和 Yoshua Bengio,以及前拜登政府的首席AI專家Ben Buchanan——都在表達類似的看法。
此外,還有許多知名經濟學家、數學家和國家安全官員也發出了相似的警告。
當然,也有一些專家對AGI即將到來表示懷疑。
但即使不考慮那些在AI公司工作、或在其中有直接利益的人,依然不應輕易忽視短時間內實現AGI的可能性 -- 有足夠多獨立且可信的聲音在提出這種觀點。
LLM進化速度驚人,拿下奧賽級金牌
比專家觀點更具說服力的,是AI系統正在以驚人的速度變得更強大。
2022年,當OpenAI發布ChatGPT時,主流AI模型仍然難以處理基礎數學運算,在復雜推理問題上常常失敗,并且經常產生「幻覺」。
在特定提示下,當時的聊天機器人確實能表現出色,但你絕不會把它們用于任何至關重要的任務。
而今天的AI模型,已經進步了許多。
現在,專訓的AI模型在IMO中能達到獎牌級的水平,而通用模型在解決復雜問題上的能力提升得如此之快,以至于不得不設計更難的新測試來衡量它們的能力。
盡管幻覺和事實錯誤仍然存在,但新一代模型上已經變得少了許多。
如今,許多企業已經信任AI模型,并將其深度集成到核心業務和面向客戶的功能中。
AI的進步,一部分是Scaling law的結果。更大的模型,結合更多的數據和更強的計算能力,通常能帶來更好的效果。
當前領先的AI模型,規模已遠超前幾代產品。
但這也離不開近年來AI研究的突破——尤其是「推理」模型的誕生。這類模型在生成回答前會額外進行一步計算,從而提升理解和邏輯推理能力,使AI的表現更加可靠。
推理模型比如OpenAI o1和DeepSeek R1,專門訓練來解決復雜問題,并采用強化學習進行構建。
這種技術最早被用于訓練AI在圍棋上達到超越人類的水平。而如今,這些模型正在攻克以往AI難以解決的難題。
例如GPT-4o在AIME 2024中得分僅為9%,而幾個月后發布的o1在同一測試中,拿下74%高分。
這表明,推理模型的能力遠超傳統AI模型。
AI寫95%代碼,搶攻白領地盤
隨著這些工具的進步,AI正變得越來越適用于各類白領知識型工作。
Kevin的同事Ezra Klein最近寫道,ChatGPT的Deep Research(一種高級分析功能)所生成的報告,其質量至少能達到他合作過的研究人員的中等水平。
在Kevin的工作中,他也發現了許多AI工具的實際用途。
Kevin不會用AI來寫專欄,但會用它做很多其他事情,比如:
- 準備采訪
- 總結研究論文
- 開發個性化應用來幫助處理行政事務
幾年前,這些事情幾乎是不可能做到的。
而現在,Kevin表示很難相信任何一個經常在嚴肅工作場景中使用AI的人,會得出「AI進步已經停滯」的結論。
如果真的想了解AI最近的進步有多大,去問問程序員就知道了。
一兩年前,雖然已經有AI編程工具,但它們的作用更多是加速人類程序員的工作,而不是取代他們。
而如今,許多軟件工程師告訴Kevin,AI已經承擔了大部分實際編碼工作,而他們的角色越來越像是監督AI系統。
創業加速器Y Combinator的合伙人Jared Friedman,最近表示,該機構當前孵化的初創公司中,有四分之一幾乎完全依賴AI編寫代碼。Friedman說道:
一年前,他們還會從零開始構建產品,但現在95%的代碼都是AI寫的。
寧可準備過度,也不能毫無準備
出于認知上的謙遜,Kevin必須承認,自己和許多人的時間預測可能是錯誤的。
「也許AI的進步,會遇到我意想不到的瓶頸」。
比如能源短缺,導致人工智能公司無法繼續擴建數據中心;或者高性能芯片的供應受限,影響AI模型的訓練。
也許當前的模型架構和訓練方法并不足以真正實現AGI,還需要更多技術突破。
但即使AGI比他預期的晚10年到來——不是2026年,而是2036年,他依然認為,人類應該從現在開始做好準備。
無論如何,都應該要做的事情:
- 更新能源基礎設施;
- 加強網絡安全防御;
- 加快AI設計藥物的審批流程;
- 制定法規以防止最嚴重的AI危害;
- 在學校教授AI基礎知識并將教育重點放在社交與情感發展而非即將過時的技術技能上。
無論是否存在AGI,這些建議都是明智之舉。
一些科技領袖擔心,對AGI的過早擔憂會導致對AI的過度監管。
然而,特朗普政府已經表明其意圖是加速AI的發展,而非減緩它。
而且投入到下一代AI模型研發的資金數額高達數百億美元,并且還在不斷增加——
因此領先的AI公司自愿放緩腳步的可能性似乎不大。
與準備過度相比,更大的風險在于大多數人可能直到強大的AI直接沖擊他們的生活——如失業、陷入騙局或受到傷害時,才意識到它的存在。
這正是社交媒體時代發生的情況,美國在Facebook和Twitter等工具變得「大而不倒」(too big to fall)之前,沒有意識到它們可能帶來風險。
這就是為什么即使我們不確定AGI何時到來或確切的形式是什么,他也主張現在就認真對待AGI的可能性。
如果我們處于否認狀態——或者僅僅是不給予足夠的關注——我們就可能錯過在最關鍵時刻塑造這項技術的機會。
面對即將到來的巨大變革,我們需要保持警覺并積極應對,以便在未來能夠更好地利用這一技術進步。
網友熱議AGI
網友Tommy. T在文章下發文稱,Roose的觀察非常深刻,強AI確實已經近在眼前。
盡管人們對人類能否駕馭AGI感到憂慮,Tommy卻認為,只要我們理性且謹慎地去面對,這個技術將能為我們帶來巨大的好處。
他表示,我們不必害怕人類對智慧的「壟斷」會被AI打破,相反,我們應該把AI當作伙伴,發揮它的能力,來補充人類的創造力、同理心和道德判斷力。
AGI可以強化我們的優勢,幫助解決醫療創新、教育公平和環境可持續性等重大問題,為人類打開前所未有的發展機會。
要做到這些,我們必須積極做好準備。
需要大量投入于道德標準建設、公開透明的使用規則,以及確保公平普惠,讓強大的AI技術造福全人類,而不僅僅是少數特權人群。
我們的目標應當是與AI共同成長——通過清醒的樂觀態度和集體的責任意識,攜手共進。強AI時代的到來并不可怕。只要我們選擇合作、創新與審慎管理,這一時代就能成為人類歷史的一個轉折點。
沃頓商學院研究AI、創新與創業公司的Ethan Mollick教授也發帖評論說,「我認為現在正是開始為AGI做準備的最佳時機。」
他認為,越來越多來自AI行業外的聰明觀察者,例如kevin Roose和Ezra Klein,開始頻繁地發出類似的警告。
「忽視他們可能是正確的,將是一個真正的錯誤。」Mollick教授說。