成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

預測token速度翻番!Transformer新解碼算法火了,來自小羊駝團隊

人工智能 新聞
這是一種并行解碼算法,名叫“Lookahead Decoding” (前向解碼)。它主要利用雅可比(Jacobi)迭代法首次打破自回歸解碼中的順序依賴性 (眾所周知,當下大模型基本都是基于自回歸的Transformer)。

小羊駝團隊的新研究火了。

他們開發(fā)了一種新的解碼算法,可以讓模型預測100個token數的速度提高1.5-2.3倍,進而加速LLM推理。

比如這是同一個模型(LLaMa-2-Chat 7B)面對同一個用戶提問(蘇格拉底采用了哪些方法來挑戰(zhàn)他那個時代的主流思想?)時輸出回答的速度:

左邊為原算法,耗時18.12s,每秒約35個token;

右邊為該算法,耗時10.4s,每秒約60個token,明顯快了一大截。

圖片

簡單來說,這是一種并行解碼算法,名叫“Lookahead Decoding” (前向解碼)

它主要利用雅可比(Jacobi)迭代法首次打破自回歸解碼中的順序依賴性 (眾所周知,當下大模型基本都是基于自回歸的Transformer)

由此無需草稿模型(draft model)或數據存儲,就可以減少解碼步驟,加速LLM推理。

目前,作者已給出了與huggingface/transformers兼容的實現,只需幾行代碼,使用者即可輕松增強HF原生生成的性能。

有網友表示:

該方法實在有趣,沒想到在離散設置上效果這么好。

圖片

還有人稱,這讓我們離“即時大模型”又近了一步。

圖片

具體如何實現?

加速自回歸解碼的重要性

不管是GPT-4還是LLaMA,當下的大模型都是基于自回歸解碼,這種方法下的推理速度其實是非常慢的。

因為每個自回歸解碼步驟一次僅生成一個token

這樣一來,模型輸出的延遲有多高就取決于回答的長度。

更糟的是,這樣的操作方式還浪費了現代GPU的并行處理能:GPU利用率都很低。

對于聊天機器人來說,當然是延遲越低,響應越快越好(尤其面對長序列答案時)

此前,有人提出了一種叫做推測解碼的加速自回歸解碼的算法,大致思路是采用猜測和驗證策略,即先讓草稿模型預測幾個潛在的未來token,然后原始LLM去并行驗證。

該方法可以“憑好運氣”減少解碼步驟的數量,從而降低延遲.

但也有不少問題,比如效果受到token接受率的限制,創(chuàng)建準確的草稿模型也麻煩,通常需要額外的訓練和仔細的調整等。

在此,小羊駝團隊提出了一種的新的精確并行解碼算法,即前向解碼來克服這些挑戰(zhàn)。

前向解碼打破順序依賴性

前向解碼之所以可行,是作者們觀察到:

盡管一步解碼多個新token是不可行的,但LLM確實可以并行生成多個不相交的n-grams——它們可能適合生成序列的未來部分。

這可以通過將自回歸解碼視為求解非線性方程,并采用經典的Jacobi迭代法進行并行解碼來實現。

在過程中,我們就讓生成的n-grams被捕獲并隨后進行驗證,如果合適就將其集成到序列中,由此實現在不到n個步驟的時間內生成n個token的操作。

作者介紹,前向解碼之所以能夠“脫穎而出”,主要是因為它:

一不需草稿模型即可運行,簡化了部署。

二是相對于每步 log(FLOPs) 線性減少了解碼步驟數,最終在單個GPU、不同數據集上實現快1.5倍-2.3倍的token數預測。

圖片

更重要的是,它允許分配更多(大于1個GPU)的 FLOP,以在對延遲極其敏感的應用程序中實現更大程度地延遲下降,盡管這會帶來收益遞減。

下面是具體介紹:

1、前向解碼的動機Jacobi在進行求解非線性系統(tǒng)時,一并使用定點迭代方法一次性解碼所有的未來token。

這個過程幾乎看不到時鐘加速。

2、前向解碼通過收集和緩存Jacobi迭代軌跡生成的n-grams來利用Jacobi解碼的能力。

下圖為通過Jacobi解碼收集2-grams,然后驗證并加速解碼的過程。

3、每個解碼步驟有2個分支:

前向分支維護一個固定大小的2D窗口,以根據Jacobi軌跡生成n-grams;驗證分支驗證有希望的n-grams。

作者實現了二合一atten mask,以進一步利用GPU的并行計算能力。

圖片

4、前向解碼無需外部源即可立即生成并驗證非常多的n-grams。這雖然增加了步驟的成本,但也提高了接受更長n-grams可能性。

換句話說,前向解碼允許用更多的觸發(fā)器來減少延遲。

5、作者檢查了flops vs 延遲減少之間的縮放行為,并找到了縮放法則:
當n-grams足夠大時(比如11-gram),以指數方式增加未來的token猜測(即窗口大小)可以線性減少解碼步驟數。

作者介紹

本方法作者一共4位,全部來自小羊駝團隊。

圖片

其中有兩位華人:

傅奕超以及張昊,后者博士畢業(yè)于CMU,碩士畢業(yè)于上交大,現在是加州大學圣地亞哥分校助理教授。

責任編輯:張燕妮 來源: 量子位
相關推薦

2023-10-29 22:38:59

2023-10-12 12:13:16

AI訓練

2024-02-26 00:20:00

AI模型

2023-05-22 09:28:30

模型AI

2023-03-31 13:55:00

模型智能

2023-04-04 13:17:00

GPUCMU開源

2023-06-12 09:57:22

AIChatGPT

2024-07-01 12:17:54

2014-07-29 13:27:12

手游Cocos2d-JS神經貓

2025-02-20 13:50:00

AI生成訓練

2025-03-14 11:56:52

2015-11-12 12:01:39

藍牙技術藍牙

2015-11-13 10:28:07

藍牙物聯(lián)網

2017-07-12 08:33:04

機房數據中心服務器

2024-05-13 12:42:49

Karpathytoken數據

2015-10-10 16:02:36

React NativAndroid

2022-03-14 10:53:12

谷歌模型研究

2021-09-22 10:03:10

人工智能Transformer技術

2023-11-26 17:32:18

深度學習AI

2023-12-22 09:32:13

引擎模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 在线成人 | 亚洲国产精品一区二区三区 | 成人精品福利 | 欧美日韩手机在线观看 | 中文字幕精品一区二区三区精品 | 99热都是精品| 精品国产欧美一区二区三区成人 | 国产蜜臀97一区二区三区 | 亚洲精品黄色 | 免费观看黄色片视频 | 日本人做爰大片免费观看一老师 | 欧美黄a| 99精品国产一区二区青青牛奶 | 国产亚洲高清视频 | 国产精品欧美一区二区三区不卡 | 久久久av | 麻豆久久久 | 中文字幕一区二区在线观看 | 中文字幕精品一区二区三区精品 | 一区在线播放 | 中文字幕在线免费 | 亚洲一区二区视频在线观看 | 国产亚洲精品久久午夜玫瑰园 | 欧美一区二区三区国产 | 午夜精品一区二区三区在线视频 | 国产剧情一区 | 亚洲欧美视频一区 | 久久久123| 免费福利视频一区二区三区 | 草久久 | 国产精品视频免费观看 | 韩日一区二区三区 | 久久久久久高清 | 日韩一级免费观看 | 日本不卡一区二区三区在线观看 | 99亚洲| 精品久久久久久一区二区 | 亚洲精品9999久久久久 | 欧美综合久久 | 成人在线精品视频 | 欧美一区不卡 |