成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Andrej Karpathy:大模型有內存限制,這個妙招挺好用

開發
Andrej Karpathy 用通俗易懂的語言介紹了 speculative execution。

「如今,LLM(大語言模型)并不是單點突破的 —— 而是需要多個重要組件有效協同工作的系統。Speculative decoding 是幫助我們從系統角度思考的一個很好的例子?!箰鄱”ご髮W博士生符堯表示道。

符堯上述觀點評論的是特斯拉前 AI 總監、年初重回 OpenAI 的 Andrej Karpathy 剛剛發布的一條推特。

人形機器人公司 1X Technologies 的 AI 副總裁 Eric Jang 評價道:「Karpathy 很好的解釋了 LLM 的 speculative execution。其他自回歸模型可能會以類似的方式加速。連續(擴散)模型可能從 K 步中獲益較少(可能在第 1 步后偏離猜測),但可以將其應用于 VQ-latents 的離散代碼?!?/p>

看完上述評價,我們大概也了解了,Karpathy 說的「Speculative execution」,這是優化技術的一類,采用這個技術的計算機系統會根據現有信息,利用空轉時間提前執行一些將來可能用得上,也可能用不上的指令。如果指令執行完成后發現用不上,系統會拋棄計算結果,并回退執行期間造成的副作用(如緩存)。

為了讓大家更好的理解 Karpathy 的內容。我們先介紹一下「Speculative decoding」方法,對后續理解更加有益,其主要用于加速大模型的推理。據了解,GPT-4 泄密報告也提到了 OpenAI 線上模型推理使用了它(不確定是否 100%)。

關于「Speculative decoding」,已有幾篇重要文獻可供參考,這也是 Karpathy 為了寫這則推特所參考的論文,包括谷歌今年 1 月發表的論文《Fast Inference from Transformers via Speculative Decoding》、DeepMind 今年 2 月發表的論文《Accelerating Large Language Model Decoding with Speculative Sampling》,以及谷歌等機構 2018 年的論文《Blockwise Parallel Decoding for Deep Autoregressive Models 》 。

簡單來說,「Speculative decoding」使用兩個模型:一個是原始目標模型稱為大模型,另一個是比原始模型小得多的近似模型稱為小模型。主要思想是先讓小模型提前解碼多個 token 進行猜測,并將它們作為單個 batch 輸入到一個大模型中進行審核修正,其效果和直接用大模型解碼等價。如果小模型猜測的不準確,那么大型模型會放棄小模型預測的 token,繼續使用大型模型進行解碼。

由于小模型計算量小,從而大大減少了內存訪問需求。

介紹完「Speculative decoding」,我們再回到 Karpathy 的推特。Karpathy 是針對下面內容回復的。

Karpathy 表示:對于 LLM 來說,「Speculative execution」 是一種極好的推理 — 時間優化方法。

它取決于以下方面:在單個輸入 token 上分發 LLM 所花費的時間與在批處理中分發 K 個輸入 token 所花費的時間一樣多。產生這樣的原因是因為采樣嚴重受內存限制:模型運行時的大部分工作不是在做計算,而是從 VRAM 讀取 transformer 的權重到片上緩存進行處理。如果你要做的工作是來讀取這些權值,你可以把它們應用到一整批輸入向量上。

但是我們不能一次性采樣一批 K 個 token,因為每 N 個 token 都取決于我們在第 N-1 步采樣的 token。由于存在串行依賴性,因此基線實現只是從左到右逐一進行。

現在最聰明的想法是使用一個小而便宜的草稿模型(draft model),先生成 K 個 token 候選序列,即一個「草稿」。然后用大模型批量的將輸入組合在一起。速度幾乎與僅輸入一個 token 一樣快。接著從左到右遍歷模型和樣本 token 預測的 logits。任何與「草稿」一致的樣本都允許立即跳到下一個 token。如果存在分歧,那么就丟棄「草稿」并承擔一些一次性工作的成本(對「草稿」進行采樣并為所有后續 token 進行前向傳遞)。

這種方法起作用的原因在于,很多「草稿」token 都會被接受,因為它們很容易,所以即使是更小的草稿模型也能得到它們。當這些簡單的 token 被接受時,我們會跳過這些部分。大模型不同意的 hard token 會回落到原始速度,但由于一些額外的工作,實際上速度會慢一些。 

Karpathy 表示,這個奇怪的技巧之所以有效,是因為 LLM 在推理時受到內存限制,在對單個序列進行采樣的 batch size=1 設置中,很大一部分本地 LLM 用例都屬于這種情況。因為大多數 token 都很「簡單」。

參考鏈接:https://twitter.com/karpathy/status/1697318534555336961

責任編輯:趙寧寧 來源: 機器之心
相關推薦

2024-08-27 09:32:04

2021-08-02 07:50:42

腳本Shell日志

2015-03-11 10:30:52

Apple Pay

2025-02-10 07:00:00

JavaScript數組方法前端

2022-08-21 21:15:28

模型AI

2024-12-02 09:20:00

2023-05-16 14:07:52

AI自然語言

2010-06-09 14:55:11

TCP IP協議限制

2021-03-21 23:08:46

安卓手機工具

2024-09-29 13:30:00

2024-12-26 16:36:22

2023-01-06 12:49:53

訓練庫

2024-12-04 09:25:00

2023-05-29 09:48:36

AI李飛飛

2025-06-05 09:03:39

2024-08-16 16:13:00

2010-09-29 14:00:05

2010-09-25 15:40:52

配置JVM內存

2010-07-21 11:50:24

telnet亂碼

2024-11-21 14:30:00

模型訓練
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久99精品久久久 | 亚洲精品一区二区三区在线观看 | 亚洲精品久久久久久久久久久 | www.久久久久久久久久久久 | 天堂精品| 国产精品美女久久久 | 成人一区二区视频 | 精品国产精品三级精品av网址 | 欧美中文在线 | 色噜噜狠狠色综合中国 | 国产一区二区三区 | 亚洲一二三区在线观看 | 秋霞a级毛片在线看 | 99视频在线免费观看 | 最新日韩在线视频 | 九九热久久免费视频 | 精品欧美乱码久久久久久 | 久久精品视频在线观看 | 久久尤物免费一区二区三区 | 韩日在线观看视频 | 亚洲一二三区在线观看 | 欧美久久国产 | 国产亚洲精品区 | www.蜜桃av| 草比网站 | 国产一区二区三区免费视频 | 精品一区二区三区在线观看 | 在线观看视频91 | 国产二区在线播放 | 波多野结衣中文视频 | 中文字幕一区二区三区乱码在线 | 亚洲国产精品一区二区第一页 | 国产特一级黄色片 | 91久久北条麻妃一区二区三区 | 国产日韩欧美在线观看 | 亚洲成av人片在线观看无码 | 久久99精品久久久久久国产越南 | 久久久久无码国产精品一区 | www.亚洲| 九九热视频这里只有精品 | 亚洲高清免费观看 |