成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

拋棄自回歸,連接一致性Diffusion和LLM!UCSD上交新作熱度緊追AF 3

開(kāi)發(fā)
來(lái)自加州大學(xué)圣地亞哥分校和上海交通大學(xué)的幾位研究者發(fā)表了他們關(guān)于「一致性大語(yǔ)言模型」的研究成果(Consistency LLM),使用Jacobi解碼算法實(shí)現(xiàn)并行化并使用「一致性損失函數(shù)」,將文字生成速度提升了2.4-3.4倍。

DeepMind新發(fā)布的AlphaFold 3是科技圈今天的絕對(duì)大熱門(mén),成為了Hacker News等許多科技媒體的頭版頭條。

圖片圖片

Hacker News熱榜上緊隨其后的則是今年2月發(fā)布的論文「一致性大語(yǔ)言模型」。

圖片圖片

到底是什么樣的成果,竟然可以頂著AlphaFold 3的熱度出圈?

這篇論文不僅切中了大語(yǔ)言模型推理速度慢的痛點(diǎn),而且實(shí)現(xiàn)了性能大幅度提升。

圖片圖片

CLLM在多個(gè)下游任務(wù)上都取得了2-3倍的加速,且推理過(guò)程沒(méi)有引入額外成本。在GSM8K和Spider兩個(gè)任務(wù)中,相比今年1月剛發(fā)布的Medusa 2都有了明顯提升。

圖片圖片

論文的兩位共同一作都是一年級(jí)博士生,分別是來(lái)自上海交通大學(xué)的寇思麒和來(lái)自加州大學(xué)圣地亞哥分校的胡嵐翔,他們的指導(dǎo)老師是交大的鄧志杰教授和UCSD的張昊教授,后者也是Vicuna/vLLM/Chatbot Arena等項(xiàng)目的作者。

目前這篇論文已經(jīng)被ICML 2024會(huì)議接收,所用代碼已在GitHub上開(kāi)源,可以在HuggingFace倉(cāng)庫(kù)上看到模型多個(gè)版本的權(quán)重。

圖片圖片

https://huggingface.co/cllm

圖片圖片

https://github.com/hao-ai-lab/Consistency_LLM

LLM苦推理速度久矣

以GPT和Llama家族為代表的大語(yǔ)言模型雖然可以出色地完成人類語(yǔ)言任務(wù),但代價(jià)也是巨大的。

除了參數(shù)量大,推理速度慢、token吞吐量低也是經(jīng)常被人詬病的問(wèn)題,尤其是對(duì)于上下文信息較多的任務(wù),因此大語(yǔ)言模型的部署和在現(xiàn)實(shí)中的應(yīng)用十分受限。

Reddit上經(jīng)常有開(kāi)發(fā)者詢問(wèn)減少LLM推理時(shí)間的方法,有人曾經(jīng)發(fā)帖,在64G GPU內(nèi)存、4塊英偉達(dá)T4芯片上用langchain部署7B的Llama 2模型后,需要10秒鐘回答較小的查詢,較大的查詢則需要3分鐘。

圖片

為了提高推理速度和token吞吐量,研究者們想了很多方法,比如去年很流行的vLLM推理框架,就是通過(guò)改進(jìn)注意力算法來(lái)提高語(yǔ)言模型的效率。

CLLM的思路則放在了解碼上,使用更適合并行的Jacobi算法替代傳統(tǒng)的自回歸方法。

Jacobi解碼算法

自回歸解碼算法在運(yùn)行時(shí),每次只能基于已知序列生成1個(gè)token,這種基于時(shí)間序列的算法對(duì)GPT之類的大模型非常不友好,要想實(shí)現(xiàn)并行化的推理,就必須修改模型架構(gòu)或者添加額外的構(gòu)件。

圖片圖片

這篇研究則提出,使用Jacobi解碼算法取代傳統(tǒng)的自回歸,每一次解碼可以同時(shí)生成序列后n個(gè)token。

Jacobi解碼源自用于求解非線性方程的Jacobi和Gauss-Seidel定點(diǎn)迭代,并被證明與使用貪婪解碼的自回歸生成相同。

給定一個(gè)初始序列時(shí),首先生成n個(gè)隨機(jī)token作為起始點(diǎn),之后將這n個(gè)token的優(yōu)化問(wèn)題看作n個(gè)非線性方程組,里面含有的n個(gè)變量可以基于Jacobi迭代并行求解。

每一次Jacobi迭代可以預(yù)測(cè)出一個(gè)或多個(gè)正確的token,進(jìn)行多輪迭代直至收斂,就完成了n個(gè)token的預(yù)測(cè),迭代的過(guò)程形成Jacobi軌跡。

圖片圖片

本篇文章所用Jacobi算法的靈感追溯至2021年的一篇論文,用求解非線性方程組加速神經(jīng)網(wǎng)絡(luò)計(jì)算。

圖片圖片

論文地址:https://arxiv.org/pdf/2002.03629

以及張昊組的另一篇論文lookahead decoding:

圖片圖片

論文地址:https://arxiv.org/pdf/2402.02057

一致性語(yǔ)言模型

使用Jacobi算法解碼時(shí),大語(yǔ)言模型的推理過(guò)程可以被歸納為——一致地將雅可比軌跡 ?? 上的任何點(diǎn) ?? 映射到固定點(diǎn) ??? ,而這個(gè)訓(xùn)練目標(biāo)和一致性模型非常相似。

「一致性模型」最初由ICML 2023的一篇論文提出,作者是四位大名鼎鼎的OpenAI研究科學(xué)家:Ilya Sutskever、宋飏、Mark Chen以及DALLE3的作者之一Prafulla Dhariwal。

圖片圖片

論文地址:https://arxiv.org/pdf/2303.01469

因此,這項(xiàng)研究提出在目標(biāo)語(yǔ)言模型的基礎(chǔ)上,聯(lián)合兩種損失函數(shù)來(lái)調(diào)整CLLM——一致性損失(consistency loss)保證同時(shí)預(yù)測(cè)多個(gè)token,自回歸損失防止CLLM偏離目標(biāo)語(yǔ)言模型,保證生成質(zhì)量的同時(shí)提升效率。

圖片圖片

實(shí)驗(yàn)結(jié)果也比較理想,CLLM方法確實(shí)可以在接近目標(biāo)模型生成效果的同時(shí),大幅加快生成速度,從原有的約40 token/s提升至超過(guò)120 token/s。

圖片圖片

圖片圖片

除了推理性能的提升,這種解碼方法也在更抽象的層次上提升了LLM的能力。

由于不再是逐個(gè)生成token而是同時(shí)預(yù)測(cè)序列后面的n個(gè)token,CLLM似乎理解了一個(gè)重要的語(yǔ)言概念——詞語(yǔ)搭配。

它會(huì)更頻繁地生成固定的詞組和術(shù)語(yǔ),比如「與...交談」,或者編程語(yǔ)言中「if...else...」這樣的常用語(yǔ)法結(jié)構(gòu),這似乎也更符合人類使用語(yǔ)言的習(xí)慣。

參考資料:

https://hao-ai-lab.github.io/blogs/cllm/

https://news.ycombinator.com/item?id=40302201

https://www.reddit.com/r/MachineLearning/comments/15851sr/d_how_do_i_reduce_llm_inferencing_time/

https://aws.amazon.com/what-is/autoregressive-models/

責(zé)任編輯:武曉燕 來(lái)源: 新智元
相關(guān)推薦

2017-07-25 14:38:56

數(shù)據(jù)庫(kù)一致性非鎖定讀一致性鎖定讀

2022-12-14 08:23:30

2023-06-25 09:44:00

一致性哈希數(shù)據(jù)庫(kù)

2021-02-05 08:00:48

哈希算法?機(jī)器

2021-02-02 12:40:50

哈希算法數(shù)據(jù)

2020-11-24 09:03:41

一致性MySQLMVCC

2020-05-12 10:43:22

Redis緩存數(shù)據(jù)庫(kù)

2021-06-30 21:13:49

CPUCache數(shù)據(jù)

2022-10-19 12:22:53

并發(fā)扣款一致性

2022-03-22 09:54:22

Hash算法

2021-02-04 06:30:26

Python編程語(yǔ)言

2023-05-26 07:34:50

RedisMySQL緩存

2022-02-17 21:04:27

數(shù)據(jù)庫(kù)MysqlRedis

2020-03-16 11:55:28

PaxosRaft協(xié)議

2017-05-19 15:00:05

session架構(gòu)web-server

2017-07-02 16:28:06

MySQL數(shù)據(jù)庫(kù)集群

2022-11-10 07:49:09

hash算法代碼

2019-10-11 23:27:19

分布式一致性算法開(kāi)發(fā)

2021-08-13 07:56:13

Raft算法日志

2020-07-20 08:30:37

算法哈希分布式系統(tǒng)
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 91在线观看 | 热99精品视频 | 亚洲欧美在线免费观看 | 成人免费高清 | 视频在线一区二区 | 日韩中文字幕网 | 99伊人 | 久久久不卡网国产精品一区 | 黄色一级大片视频 | 久久99视频免费观看 | 国产精品视频免费观看 | 日韩欧美二区 | 中文字幕在线免费视频 | 色婷婷综合久久久中字幕精品久久 | 欧美极品一区二区 | 亚洲视频在线观看 | 欧美成人免费电影 | 免费观看一级特黄欧美大片 | 久久se精品一区精品二区 | 色爱综合网 | 成人在线一区二区三区 | 国产成人精品免高潮在线观看 | 91视频在线 | 国产精品一区二区欧美 | 色综合桃花网 | 亚洲天堂av一区 | 国产欧美日韩精品一区二区三区 | 91大神在线资源观看无广告 | 999精品在线| 欧美国产日本一区 | 国产精品国产精品国产专区不片 | 99久9 | 国产高清在线观看 | 欧洲精品久久久久毛片完整版 | 爱爱视频在线观看 | 久久久www成人免费精品 | 亚洲国产精品一区二区三区 | 爽爽免费视频 | 伊人久久综合影院 | 久久专区| 中文字幕 在线观看 |