?「最新采訪」Sam Altman暗示即將實現(xiàn)AGI :12個月內(nèi)推出強大技術(shù)
Sam Altman 在 DealBook 峰會上又發(fā)表了一番暴論。他表示,AGI的到來比大多數(shù)人預(yù)期得更快,但其實際影響卻可能遠低于大眾想象
Altman 坦言,OpenAI 計劃在未來12個月內(nèi)推出一系列更強大的技術(shù),并暗示它可以實現(xiàn)AGI,即機器可以完成幾乎所有人類大腦能完成的任務(wù)。然而,他認為,AGI 的出現(xiàn)不會帶來災(zāi)難性變化,而是更像是經(jīng)濟加速的“里程碑”。
“AGI 出現(xiàn)后,世界會繼續(xù)運轉(zhuǎn),只是經(jīng)濟發(fā)展會更快,增長速度加速。”
他還提到,許多人對 AGI 的安全擔(dān)憂并非完全基于事實。實際上,真正的風(fēng)險可能出現(xiàn)在 AGI 之后的“超級智能”階段,而非 AGI 本身
2025年
Sam Altman :到2025年,人工智能的進步可能會讓世界大吃一驚 OpenAI的成立是基于這樣一種信念:深度學(xué)習(xí)可能會帶來超級智能,但其定義和發(fā)展仍不確定。到2025年,人工智能可能會像智能人類一樣處理復(fù)雜的任務(wù),這將讓許多人大吃一驚,并改變?nèi)藗儗θ斯ぶ悄艿目捶?/p>
以下是Altman對于2025年的預(yù)測(中英文,視頻附在文后)
中文,
我們相信深度學(xué)習(xí)是人類的一項不可思議的新發(fā)現(xiàn),并認為它可以發(fā)展到這一階段。我們有責(zé)任推動它前進,確保它以良好的方式發(fā)展,并讓更多人共享其帶來的益處。
是的,我們確實認為自己可以實現(xiàn)這一目標,
而且我們?nèi)匀幌嘈趴梢宰龅健?/p>
盡管這并非板上釘釘。
目前還有大量艱巨的工作需要完成,包括研究和工程方面的努力,
但我認為這是有可能的。
而且我認為實現(xiàn)這一目標的時間并不遙遠。
我預(yù)計到2025年,我們將擁有一些系統(tǒng),即使是那些對當(dāng)前進展持懷疑態(tài)度的人,也會驚嘆道:“哇,
我完全沒想到會是這樣。”
這確實會帶來改變。
比如,什么會改變呢?
智能體是每個人都在談?wù)摰脑掝},
我認為這是有充分理由的。
這個設(shè)想是,你可以讓一個 AI 系統(tǒng)完成一項相當(dāng)復(fù)雜的任務(wù),
比如那種需要一個非常聰明的人花費一段時間,通過使用各種工具來完成并創(chuàng)造出有價值成果的任務(wù)。
我預(yù)計這種情況會在明年發(fā)生。
英文
We believed in deep learning as this unbelievable new discovery of humanity and we thought it could go here and we had a duty to get it here and to make it go well and to broaden the share of the benefits.
But yeah, we did think we could get here,
and we still believe we can get here.
It's not for sure.
There's a ton of hard work, a ton of research and engineering still to do,
but I think it's possible.
And I think it's possible not super far in the future.
I expect that in 2025 we will have systems that people look at,
even people who are skeptical of current progress and say, wow,
that I did not expect that.
That does change what?
Like what?
Agents are the thing everyone is talking about.
I think for a good reason,
this idea that you can give an AI system a pretty complicated task,
like a kind of task you give to a very smart human that takes a while to go off and do and use a bunch of tools and create something of value.
That's a kind of thing I'd expect next year