成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

OpenAI神秘新模型Q*曝光,太強大讓董事會警惕,或是奧特曼被開除導火索

人工智能
OpenAI內部目前還沒有人對Q*的消息發表回應。但奧特曼剛剛透露與留在董事會的Quora創始人Adam D’Angelo進行了幾個小時的友好談話。

OpenAI宮斗大戲剛剛落幕,馬上又掀起另一場軒然大波!

路透社曝光,在奧特曼被解雇之前,幾位研究人員給董事會寫的警告信可能是整個事件導火索:

內部名為Q (發音為Q-Star)*的下一代AI模型,過于強大和先進,可能會威脅人類。

Q*正是由這場風暴的中心人物,首席科學家Ilya Sutskever主導。

人們迅速把奧特曼此前在APEC峰會上的發言聯系在了一起:

OpenAI歷史上已經有過四次,最近一次就是在過去幾周,當我們推開無知之幕并抵達探索發現的前沿時,我就在房間里,這是職業生涯中的最高榮譽?!?/p>

圖片圖片

Q*可能有以下幾個核心特性,被認為是通往AGI或超級智能的關鍵一步。

  • 突破了人類數據的限制,可以自己生產巨量訓練數據
  • 有自主學習和自我改進的能力

這則消息迅速引發了巨大討論,馬斯克也帶著鏈接來追問。

圖片圖片

最新的梗圖則是,好像一夜之間,人們都從研究奧特曼和OpenAI董事會的專家,變成了Q*專家。

突破數據限制

根據來自The Information的最新消息,Q*的前身是GPT-Zero,這個項目由Ilya Sutskever發起,名字致敬了DeepMind的Alpha-Zero。

Alpha-Zero無需學習人類棋譜,通過自己跟自己博弈來掌握下圍棋。

GPT-Zero讓下一代AI模型不用依賴互聯網上抓取的文本或圖片等真實世界數據,而是使用合成數據訓練。

2021年,GPT-Zero正式立項,此后并未有太多直接相關的消息傳出。

但就在幾周前,Ilya在一次訪談中提到:

不談太多細節,我只想說數據限制是可以被克服的,進步仍將繼續。

圖片圖片

在GPT-Zero的基礎上,由Jakub Pachocki和Szymon Sidor開發出了Q*。

兩人都是OpenAI早期成員,也都是第一批宣布要跟著奧特曼去微軟的成員。

圖片圖片

Jakub Pachocki上個月剛剛晉升研究總監,過去很多突破包括Dota 2項目和GPT-4的預訓練,他都是核心貢獻者。

圖片圖片

Szymon Sidor同樣參與過Dota 2項目,個人簡介是“正在造AGI,一行代碼接一行代碼”。

圖片圖片

在路透社的消息中,提到給Q*提供龐大的計算資源,能夠解決某些數學問題。雖然目前數學能力僅達到小學水平,但讓研究者對未來的成功非常樂觀。

另外還提到了OpenAI成立了“AI科學家”新團隊,由早期的“Code Gen”和“Math Gen”兩個團隊合并而來,正在探索優化提高AI的推理能力,并最終開展科學探索。

三種猜測

關于Q*到底是什么沒有更具體的消息傳出,但一些人從名字猜測可能與Q-Learning有關。

Q-Learning可以追溯到1989年,是一種無模型強化學習算法,不需要對環境建模,即使對帶有隨機因素的轉移函數或者獎勵函數也無需特別改動就可以適應。

與其他強化學習算法相比,Q-Learning專注于學習每個狀態-行動對的價值,以決定哪個動作在長期會帶來最大的回報,而不是直接學習行動策略本身。

第二種猜測是與OpenAI在5月發布的通過“過程監督”而不是“結果監督”解決數學問題有關。

圖片圖片

但這一研究成果的貢獻列表中并未出現Jakub Pachocki和Szymon Sidor的名字。

圖片圖片

另外有人猜測,7月份加入OpenAI的“德撲AI之父”Noam Brown也可能與這個項目有關。

圖片圖片

他在加入時曾表示要把過去只適用于游戲的方法通用化,推理可能會慢1000被成本也更高,但可能發現新藥物或證明數學猜想。

符合傳言中“需要巨大計算資源”和“能解決一定數學問題”的描述。

圖片圖片

雖然更多的都還是猜測,但合成數據和強化學習是否能把AI帶到下一個階段,已經成了業內討論最多的話題之一。

英偉達科學家范麟熙認為,合成數據將提供上萬億高質量的訓練token,關鍵問題是如何保持質量并避免過早陷入瓶頸。

圖片圖片

馬斯克同意這個看法,并提到人類所寫的每一本書只需一個硬盤就能裝下,合成數據將遠遠超出這個規模。

圖片圖片

但圖靈獎三巨頭中的LeCun認為,更多合成數據只是權宜之計,最終還是需要讓AI像人類或動物一樣只需極少數據就能學習。

圖片圖片

萊斯大學博士Cameron R. Wolfe表示,Q-Learning可能并不是解鎖AGI的秘訣。

但將“合成數據”與“數據高效的強化學習算法”相結合,可能正是推進當前人工智能研究范式的關鍵。

他表示,通過強化學習微調是訓練高性能大模型(如ChatGPT/GPT-4)的秘訣。但強化學習本質上數據低效,使用人工手動標注數據集進行強化學習微調非常昂貴。考慮到這一點,推進AI研究(至少在當前范式中)將嚴重依賴于兩個基本目標:

  • 讓強化學習在更少數據下表現更好。
  • 盡可能使用大模型和少量人工標注數據合成生成高質量數據。

……如果我們堅持使用Decoder-only Transformer的預測下一個token范式(即預訓練 -> SFT -> RLHF)……這兩種方法結合將使每個人都可以使用尖端的訓練技術,而不僅僅是擁有大量資金的研究團隊!

圖片圖片

One More Thing

OpenAI內部目前還沒有人對Q*的消息發表回應。

但奧特曼剛剛透露與留在董事會的Quora創始人Adam D’Angelo進行了幾個小時的友好談話。

圖片圖片

看來無論Adam D’Angelo是否像大家猜測的那樣是這次事件的幕后黑手,現在都達成和解了。

參考鏈接:
[1]https://www.theinformation.com/articles/openai-made-an-ai-breakthrough-before-altman-firing-stoking-excitement-and-concern
[2]https://www.reuters.com/technology/sam-altmans-ouster-openai-was-precipitated-by-letter-board-about-ai-breakthrough-2023-11-22/
[3]https://www.youtube.com/watch?v=ZFFvqRemDv8
[4]https://www.youtube.com/watch?v=Ft0gTO2K85A
[5]https://x.com/cwolferesearch/status/1727727148859797600
[6]https://twitter.com/DrJimFan/status/1727505774514180188

責任編輯:武曉燕 來源: 量子位
相關推薦

2023-11-18 09:29:55

AI數據

2023-11-23 14:00:07

OpenAI奧特曼

2023-11-19 21:29:19

ChatGPTOpenAI

2023-11-20 08:30:47

AI科技

2025-01-23 16:22:56

2023-11-22 15:26:44

2023-11-23 13:45:00

模型訓練

2023-11-30 17:34:55

OpenAI微軟

2024-03-11 16:14:54

2024-03-11 09:52:58

2016-05-16 10:58:02

2023-11-21 16:46:44

2023-11-20 07:33:41

OpenAI奧特曼

2018-05-04 08:30:11

聯通電信導火索

2009-10-10 17:40:38

HTML 5AdobeGoogle

2024-03-11 00:02:00

人工智能OpenAI

2020-10-20 09:18:55

人工智能技術數據

2015-03-12 13:36:27

程序猿導火索華爾街

2023-12-19 07:24:37

2023-12-19 19:50:49

GPT-5OpenIA風險
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产综合精品一区二区三区 | 一区二区在线免费播放 | 99精品在线| 青青草在线视频免费观看 | 妞干网福利视频 | 国产亚洲精品一区二区三区 | a级片网站 | 精品视频在线观看 | 亚洲欧美激情精品一区二区 | 免费看一区二区三区 | 国产日韩精品在线 | 国产精品视频在线播放 | www狠狠干| 玖玖操 | 日韩av成人 | 91麻豆精品一区二区三区 | 亚洲欧美成人在线 | 国产精品视频久久 | 黄免费观看视频 | 情侣av| 秋霞精品 | 中文字幕视频在线观看 | 在线成人www免费观看视频 | av网站免费观看 | 9999国产精品欧美久久久久久 | 日本高清aⅴ毛片免费 | 久久久精品一区二区三区 | 亚洲欧美aⅴ| 国产精品亚洲一区 | 男女一区二区三区 | 亚洲日本乱码在线观看 | 国产高清免费 | 在线视频a | 亚洲欧洲在线观看视频 | 久久精品国产亚洲一区二区 | www久久| 午夜精品久久久久久久星辰影院 | 中文精品一区二区 | 中文成人无字幕乱码精品 | 成人在线免费 | 九九在线精品视频 |