成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

馬斯克開源Grok-1:3140億參數迄今最大,權重架構全開放,磁力下載

人工智能 開源
今天凌晨,馬斯克旗下大模型公司 xAI 宣布正式開源 3140 億參數的混合專家(MoE)模型「Grok-1」,以及該模型的權重和網絡架構。

說到做到,馬斯克承諾的開源版大模型 Grok 終于來了!

今天凌晨,馬斯克旗下大模型公司 xAI 宣布正式開源 3140 億參數的混合專家(MoE)模型「Grok-1」,以及該模型的權重和網絡架構。

這也使得Grok-1成為當前參數量最大的開源大語言模型。

封面圖根據 Grok 提示使用 Midjourney 生成的:神經網絡的 3D 插圖,具有透明節點和發光連接,以不同粗細和顏色的連接線展示不同的權重。

這個時候,馬斯克當然不會忘了嘲諷 OpenAI 一番,「我們想了解更多 OpenAI 的開放部分」。

回到模型本身,Grok-1 從頭開始訓練,并且沒有針對任何特定應用(如對話)進行微調。相對的,在 X(原 Twitter)上可用的 Grok 大模型是微調過的版本,其行為和原始權重版本并不相同。

Grok-1 的模型細節包括如下:

  • 基礎模型基于大量文本數據進行訓練,沒有針對任何具體任務進行微調;
  • 3140 億參數的 MoE 模型,在給定 token 上的激活權重為 25%;
  • 2023 年 10 月,xAI 使用 JAX 庫和 Rust 語言組成的自定義訓練堆棧從頭開始訓練。

xAI 遵守 Apache 2.0 許可證來開源 Grok-1 的權重和架構。Apache 2.0 許可證允許用戶自由地使用、修改和分發軟件,無論是個人還是商業用途。項目發布短短四個小時,已經攬獲 3.4k 星標,熱度還在持續增加。

項目地址:https://github.com/xai-org/grok-1

該存儲庫包含用于加載和運行 Grok-1 開放權重模型的 JAX 示例代碼。使用之前,用戶需要確保先下載 checkpoint,并將 ckpt-0 目錄放置在 checkpoint 中, 然后,運行下面代碼進行測試:

pip install -r requirements.txt
python run.py

項目說明中明確強調,由于 Grok-1 是一個規模較大(314B 參數)的模型,因此需要有足夠 GPU 內存的機器才能使用示例代碼測試模型。此外,該存儲庫中 MoE 層的實現效率并不高,之所以選擇該實現是為了避免需要自定義內核來驗證模型的正確性。

用戶可以使用 Torrent 客戶端和這個磁力鏈接來下載權重文件:

magnet:?xt=urn:btih:5f96d43576e3d386c9ba65b883210a393b68210e&tr=https%3A%2F%2Facademictorrents.com%2Fannounce.php&tr=udp%3A%2F%2Ftracker.coppersurfer.tk%3A6969&tr=udp%3A%2F%2Ftracker.opentrackr.org%3A1337%2Fannounce

看到這,有網友開始好奇 314B 參數的 Grok-1 到底需要怎樣的配置才能運行。對此有人給出答案:可能需要一臺擁有 628 GB GPU 內存的機器(每個參數 2 字節)。這么算下來,8xH100(每個 80GB)就可以了。

知名機器學習研究者、《Python 機器學習》暢銷書作者 Sebastian Raschka 評價道:「Grok-1 比其他通常帶有使用限制的開放權重模型更加開源,但是它的開源程度不如 Pythia、Bloom 和 OLMo,后者附帶訓練代碼和可復現的數據集。」

DeepMind 研究工程師 Aleksa Gordié 則預測,Grok-1 的能力應該比 LLaMA-2 要強,但目前尚不清楚有多少數據受到了污染。另外,二者的參數量也不是一個量級。

還有一位推特用戶 @itsandrewgao 詳細分析了 Grok-1 的架構細節,并做出了一下幾點總結。

首先 Grok-1 是 8 個專家的混合(2個活躍)、860億激活參數(比Llama-2 70B還多),使用旋轉嵌入而非固定位置嵌入。

tokenizer 詞匯大小為 131,072(類似于 GPT-4)2^17,嵌入大小 6,144 (48*128),64 個 transformer 層(sheesh), 每層都有一個解碼器層:多頭注意力塊和密集塊,鍵值大小 128。

多頭注意力塊:48 個 head 用于查詢,8 個用于鍵 / 值(KV)。KV 大小為 128。密集塊(密集前饋塊):加寬因子 8,隱藏層大小 32768。每個 token 從 8 個專家中選擇 2 個。

旋轉位置嵌入大小為 6144,與輸入嵌入大小相同。上下文長度為 8192 tokens,精度為 bf16。

此外還提供了一些權重的 8bit 量化內容。

當然,我們還是希望 xAI 官方能夠盡快公布 Grok-1 的更多模型細節。

Grok-1 是個什么模型?能力如何?

Grok 是馬斯克 xAI 團隊去年 11 月推出的一款大型語言模型。在去年 11 月的官宣博客中(參見《馬斯克 xAI 公布大模型詳細進展,Grok 只訓練了 2 個月》), xAI 寫道:

Grok 是一款仿照《銀河系漫游指南》設計的 AI,可以回答幾乎任何問題,更難能可貴的是,它甚至可以建議你問什么問題!


Grok 在回答問題時略帶詼諧和叛逆,因此如果你討厭幽默,請不要使用它!


Grok 的一個獨特而基本的優勢是,它可以通過 X 平臺實時了解世界。它還能回答被大多數其他 AI 系統拒絕的辛辣問題。


Grok 仍然是一個非常早期的測試版產品 —— 這是我們通過兩個月的訓練能夠達到的最佳效果 —— 因此,希望在您的幫助下,它能在測試中迅速改進。

xAI 表示,Grok-1 的研發經歷了四個月。在此期間,Grok-1 經歷了多次迭代。

在公布了 xAI 創立的消息之后,他們訓練了一個 330 億參數的 LLM 原型 ——Grok-0。這個早期模型在標準 LM 測試基準上接近 LLaMA 2 (70B) 的能力,但只使用了一半的訓練資源。之后,他們對模型的推理和編碼能力進行了重大改進,最終開發出了 Grok-1,這是一款功能更為強大的 SOTA 語言模型,在 HumanEval 編碼任務中達到了 63.2% 的成績,在 MMLU 中達到了 73%。

xAI 使用了一些旨在衡量數學和推理能力的標準機器學習基準對 Grok-1 進行了一系列評估:

在這些基準測試中,Grok-1 顯示出了強勁的性能,超過了其計算類中的所有其他模型,包括 ChatGPT-3.5 和 Inflection-1。只有像 GPT-4 這樣使用大量訓練數據和計算資源訓練的模型才能超越它。xAI 表示,這展示了他們在高效訓練 LLM 方面取得的快速進展。

不過,xAI 也表示,由于這些基準可以在網上找到,他們不能排除模型無意中在這些數據上進行了訓練。因此,他們在收集完數據集之后,根據去年 5 月底(數據截止日期之后)公布的 2023 年匈牙利全國高中數學期末考試題,對他們的模型(以及 Claude-2 和 GPT-4 模型)進行了人工評分。結果,Grok 以 C 級(59%)通過考試,Claude-2 也取得了類似的成績(55%),而 GPT-4 則以 68% 的成績獲得了 B 級。xAI 表示,他們沒有為應對這個考試而特別準備或調整模型。

下面這個表格展示了 Grok-1 的更多信息(來自 2023 年 11 月的博客,部分信息可能存在更新):

  • 模型細節:Grok-1 是一個基于 Transformer 的自回歸模型。xAI 利用來自人類和早期 Grok-0 模型的大量反饋對模型進行了微調。初始的 Grok-1 能夠處理 8192 個 token 的上下文長度。模型于 2023 年 11 月發布。
  • 預期用途:Grok-1 將作為 Grok 背后的引擎,用于自然語言處理任務,包括問答、信息檢索、創意寫作和編碼輔助。
  • 局限性:雖然 Grok-1 在信息處理方面表現出色,但讓人類檢查 Grok-1 的工作以確保準確性至關重要。Grok-1 語言模型不具備獨立搜索網絡的能力。在 Grok 中部署搜索工具和數據庫可以增強模型的能力和真實性。盡管可以訪問外部信息源,但模型仍會產生幻覺。
  • 訓練數據:Grok-1 發布版本所使用的訓練數據來自截至 2023 年第三季度的互聯網數據和 xAI 的 AI 訓練師提供的數據。
  • 評估:xAI 在一系列推理基準任務和國外數學考試試題中對 Grok-1 進行了評估。他們與早期 alpha 測試者合作,以評估 Grok-1 的一個版本,包括對抗性測試。目前,Grok 已經對一部分早期用戶開啟了封閉測試訪問權限,進一步擴大測試人群。

在博客中,xAI 還公布了 Grok 的構建工程工作和 xAI 大致的研究方向。其中,長上下文的理解與檢索、多模態能力都是未來將會探索的方向之一。

xAI 表示,他們打造 Grok 的愿景是,希望創造一些 AI 工具,幫助人類尋求理解和知識。

具體來說,他們希望達到以下目標: 

  • 收集反饋,確保他們打造的 AI 工具能夠最大限度地造福全人類。他們認為,設計出對有各種背景和政治觀點的人都有用的 AI 工具非常重要。他們還希望在遵守法律的前提下,通過他們的 AI 工具增強用戶的能力。Grok 的目標是探索并公開展示這種方法;
  • 增強研究和創新能力:他們希望 Grok 成為所有人的強大研究助手,幫助他們快速獲取相關信息、處理數據并提出新想法。

他們的最終目標是讓他們的 AI 工具幫助人們尋求理解。

在 X 平臺上,Grok-1 的開源已經引發了不少討論。值得注意的是,技術社區指出,該模型在前饋層中使用了 GeGLU,并采用了有趣的 sandwich norm 技術進行歸一化。甚至 OpenAI 的員工也發帖表示對該模型很感興趣。

不過,開源版 Grok 目前還有些事情做不到,比如「通過 X 平臺實時了解世界」,實現這一功能目前仍需要訂閱部署在 X 平臺上的付費版本。

鑒于馬斯克對開源的積極態度,有些技術人員已經在期待后續版本的開源了。


責任編輯:趙寧寧 來源: 機器之心
相關推薦

2024-03-18 15:00:48

Grok現已開源Grok-1混合專家模型

2024-03-18 10:17:00

開源AI

2024-03-19 14:00:59

2024-03-18 14:17:06

大模型開源人工智能

2024-03-25 13:04:00

AI模型

2024-03-18 13:21:13

2023-12-13 08:46:33

人工智能ChatGPT機器人

2025-02-11 11:19:52

2024-12-03 15:51:45

2023-11-06 12:34:14

模型訓練

2025-02-17 08:50:00

OpenAI馬斯克人工智能

2022-04-27 07:16:52

收購馬斯克推特

2025-02-11 11:46:48

OpenAI奧特曼馬斯克

2024-06-28 13:42:07

2023-11-10 15:37:32

2025-02-21 10:51:47

2023-12-12 17:53:27

馬斯克AIChatGPT

2021-08-06 13:04:34

腦機接口機器人工智能

2025-03-21 09:50:56

2022-12-28 15:35:58

馬斯克推特
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 日本免费视频 | 97精品超碰一区二区三区 | 国产精品久久 | 久久成人免费视频 | 国产成人精品久久二区二区91 | 91欧美激情一区二区三区成人 | 久久毛片| 日韩和的一区二区 | 超碰导航 | 久久久九九 | 精品中文在线 | 久久亚洲综合 | 自拍偷拍小视频 | 91麻豆精品国产91久久久久久 | 日本精品视频 | 日美女逼逼 | 国产精品毛片久久久久久久 | 日本在线观看网址 | 欧美国产日韩一区二区三区 | 激情欧美日韩一区二区 | 天天操天天摸天天干 | 亚洲二区视频 | 欧美一区二区三区在线 | 成人免费在线视频 | 91在线精品视频 | av中文字幕在线 | 国产欧美精品一区二区色综合 | 久久99久久99 | 日韩精品视频中文字幕 | 国产激情偷乱视频一区二区三区 | www.黄色在线观看 | 人人人人干 | 男女网站免费观看 | 在线视频一区二区 | 中文字幕视频在线观看免费 | 亚洲国产精品日韩av不卡在线 | 91社区在线观看播放 | 亚洲日本三级 | 国产大学生情侣呻吟视频 | 国产电影精品久久 | 欧美精品1区2区3区 免费黄篇 |