奧特曼:假如給我一千倍算力,我會這樣做
完美的人工智能是“一個擁有超人推理能力、1萬億個上下文標記并可以使用你能想到的所有工具的微型模型”。
這是奧特曼在最新的訪談中對下一代模型的展望。
他表示,理想中的AGI不需要包含知識——只需要思考、搜索、模擬和解決任何問題的能力。
它應該成為一個能夠自主發現新科學,或者成為人類強大工具,使全球科學發現速度提升數倍的系統。
也許到那時,我們可能要反過來問問AI我們應該怎么做。
此話一出,有網友表示,奧特曼對AGI的理想倒是始終沒有變過:系統能自主探索新的科學發現。
但也有網友對此表示懷疑,“詢問AI該怎么做”就好像把我們手中的鑰匙交了出去,令人不安。
訪談中,奧特曼還對一個一千倍算力的假設性問題給出了極具概念性的回答。
一起來看看具體內容。
平穩、快速的進步更重要
AGI的定義其實并不重要,重要的是平穩地快速進步。
在主持人問到對AGI的定義時,奧特曼表示,不同的人在不同的時期都會對此有不一樣的理解。
可能在2020年,人工智能領域的發展還不像如今這樣繁榮的時候,如果出現ChatGPT,大多數人可能會認為這就是AGI。
就像這位網友說的,自己對AGI所有的期望都已經被OpenAI實現了。
不過,人類很擅長調整預期,在快速發展的今天,大家對AGI就有了更高的期待。
如今,有人認為AGI必須具備自我改進能力,還有很多人覺得帶有記憶功能的ChatGPT就已經很接近AGI了。
甚至有人認為如今的LLMs會成為未來AGI調用的工具之一!
以奧特曼自己來說:
一個能夠自主發現新科學,或者成為人類強大工具,使全球科學發現速度提升數倍的系統,就符合我理想中的AGI。
然而,在他看來,這些定義都不重要。
相比之下,究竟是在2026年還是2028年宣布實現 AGI,或者在2028年、2030年還是2032年宣布實現超級智能,這些時間節點遠不如持續、快速的發展趨勢重要。
也就是說,重要的并不是單一的突破,而是持續、平穩的指數級進步。
下一代模型
當被問到對下一代模型的展望時,奧特曼則表示:
未來一到兩年推出的模型將令人驚嘆,產品還有很大的進步空間和改進潛力。
就像從GPT-3到GPT-4的巨大跨越一樣,企業將能夠利用新一代模型完成上一代模型完全無法實現的任務。
比如,芯片設計公司可以要求模型設計出比以往更優秀的芯片;生物科技公司,能夠讓模型專注于攻克某種疾病。
這些模型將能夠理解企業提供的所有背景信息,連接各種工具和系統,進行深入、出色的推理,并給出答案。
同時,它們還將具備足夠的穩定性,企業可以放心讓其自主完成部分工作。
奧特曼還說:
這應該是一個小型模型,卻具備超越人類的推理能力,運行速度極快,能夠處理一萬億個標記的上下文信息,并可以訪問所有能想到的工具。
如果將這些模型僅當作數據庫使用其實并不高效。
但如果將其視為推理引擎,就可以將企業的所有信息、個人生活的各種背景,以及所需的任何工具(如物理模擬工具等)都輸入其中,人類就能夠借此完成許多不可思議的事情。
OpenAI正在朝著這個方向發展。
接著,主持人又問了一個更具假設性的問題:
如果計算資源增加一千倍,你們會如何利用這些資源?
奧特曼先給出了一個比較概念性的回答:
讓模型決定如何利用計算資源。
他認為最合理的做法是利用這些資源大力開展人工智能研究,探索如何構建更強大的模型,然后再讓新模型來決定如何利用這些計算資源。
當然他也給出了更實用的回答:
在ChatGPT或企業使用最新模型的過程中發現,增加測試階段的計算資源能帶來顯著回報。
也就是說,
如果讓模型進行更多推理,在難題上多嘗試幾次,就能得到更好的答案。
雖然現實中企業不會真的這樣做,也很難擁有千倍的計算資源,但這種可能性也為企業指明了方向——
可以為最棘手、最有價值的問題嘗試投入更多計算資源。
訪談中聊了很多對AI未來的展望,可以肯定的是,如今的大模型已經是百科全書了。
隨著算力的發展以及科技的進步,AI在未來或許真的可以成為一個偉大的思考者。