成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

深度揭秘爆火MoE!GPT-4關鍵架構,成開源模型逆襲殺手锏

人工智能 新聞
上周末,Mistral甩出的開源MoE大模型,震驚了整個開源社區(qū)。MoE究竟是什么?它又是如何提升了大語言模型的性能?

Mistral上周末丟出的磁力鏈接震驚了開源圈子,這個7B×8E的開源MoE大模型性能已經到達了LLaMA2 70B的級別!

而根據(jù)Jim Fan猜測,如果Mistral內部訓練了34B×8E或者甚至100B+×8E級別的模型,那他們的能力很有可能已經無限接近GPT-4了。

而在之前對于GPT-4結構的曝料中,大部分的信息也指向GPT-4很可能是由8個或者是16個MoE構成。

為什么MoE能成為高性能大模型的必選項?

簡單來說,MoE是一種神經網絡架構設計,在Transformer模塊中集成了專家/模型層。

當數(shù)據(jù)流經MoE層時,每個輸入token都會動態(tài)路由到專家子模型進行處理。當每個專家專門從事特定任務時,這種方法可以實現(xiàn)更高效的計算并獲得更好的結果。

MoE最關鍵的組件:

- 專家(Expert):MoE層由許多專家、小型MLP或復雜的LLM(如 Mistral 7B)組成。

- 路由器(Router):路由器確定將哪些輸入token分配給哪些專家。

路由策略有兩種:token選擇路由器或路由器選擇token。

路由器使用softmax門控函數(shù)通過專家或token對概率分布進行建模,并選擇前k個。

MoE能夠帶來的好處:

- 每個專家都可以專門處理不同的任務或數(shù)據(jù)的不同部分。

- MoE構架能向LLM添加可學習參數(shù),而不增加推理成本。

- 可以利用稀疏矩陣的高效計算

- 并行計算所有專家層,以有效利用GPU的并行能力

- 幫助有效地擴展模型并減少訓練時間。以更低的計算成本獲得更好的結果!

MoE:建立高效大模型的關鍵技術

大型語言模型(LLM)席卷了機器學習領域,而隨著現(xiàn)代數(shù)據(jù)集的復雜性和規(guī)模的增加,每個數(shù)據(jù)集都包含不同的模式,特征和標注之間的關系截然不同。

——這時,就需要MoE出手了。

專家混合(MoE)就像神經網絡世界中的一種團隊合作技術。

想象一下,將一項大任務分解成更小的部分,并讓不同的專家處理每個部分。然后,有一個聰明的法官會根據(jù)情況,決定遵循哪位專家的建議,所有這些建議都混合在一起。

——就像你利用不同的口味,組合成一道好吃的菜。

對于復雜的數(shù)據(jù)集,可以劃分為局部子集(local subsets),同樣,將需要預測的問題劃分為子任務(采用領域知識或者無監(jiān)督聚類算法)。

然后,針對每個數(shù)據(jù)子集訓練專家模型(Expert Models),專家模型可以是任何模型,比如支持向量機 (SVM) 或者神經網絡,每個專家模型接收相同的輸入模式并進行預測。

MoE還包含門控模型(Gating Model),用于解釋每個專家做出的預測,并根據(jù)輸入選擇信任哪個專家。

最后,MoE需要一種聚合機制(Pooling Method),根據(jù)門控模型和專家的輸出進行預測。

在現(xiàn)實的應用中,研究人員提出一種稱為「稀疏門控專家混合層」的方法,作為原始MoE的迭代,這個方法提供了一個通用的神經網絡組件,可以適應不同類型的任務。

稀疏門控專家混合層(Sparsely-Gated Mixture-of-Experts Layer)由許多專家網絡組成,每個專家網絡都是一個簡單的前饋神經網絡和一個可訓練的門控網絡。門控網絡負責選擇這些專家的稀疏組合來處理每個輸入。

這里的重點是在門控功能中使用稀疏性,——這意味著對于每個輸入實例,門控網絡只選擇少數(shù)專家進行處理,其余的專家保持非活動狀態(tài)。

這種稀疏性和專家選擇是針對每個輸入動態(tài)實現(xiàn)的,整個過程具有高度的靈活性和適應性,而由于不需要處理網絡的非活動部分,計算效率大大提高。

——簡單來說就是,算得快、消耗少、省錢。

MoE層可以分層堆疊,其中主MoE選擇稀疏加權的「專家」組合。每個組合都使用一個MoE圖層。

此外,研究人員還提出了一種名為「Noisy Top-K Gating」的創(chuàng)新技術。

這種機制在門控函數(shù)中增加了一個可調的高斯噪聲,只保留前K個值,并將其余值分配給負無窮大,從而轉換為零門控值。

這種方法確保了門控網絡的稀疏性,同時保持了對門控函數(shù)輸出中潛在不連續(xù)性的魯棒性。另外,它還有助于跨專家網絡進行負載平衡。

MoE和Transformer

下面我們來看一下MoE在Transformer ,也就是當下大火的大語言模型中發(fā)揮了怎樣的作用。

MoE作為一種神經網絡架構設計,可以集成進Transformer的結構中。

當數(shù)據(jù)流經MoE層時,每個輸入(tokens)都會動態(tài)路由到某個專家模型進行計算,這樣每個專家都可以專注于特定的任務,更好、更高效地給出結果。

上圖展示了具有MoE層的Transformer編碼器的演化(對于解碼器的修改也類似),MoE層取代了Transformer的前饋層。

上圖左邊是標準Transformer模型的編碼器,包括自注意力層和前饋層,交錯著殘差連接和歸一化層。

中間部分通過用MoE層替換其他前饋層,得到了MoE Transformer Encoder的模型結構。

上圖右側是當模型擴展到多個設備時的情況,MoE層將跨設備分片,而所有其他層都會被復制。

我們可以看到MoE的關鍵組件就是各種專家模型和路由模塊。

專家模型也可以是小型MLP, 或者復雜的LLM,如Mistral 7B。

而路由模塊用來確定將哪些輸入tokens分配給哪些專家。

一般有兩種路由策略:token選擇路由器,或路由器選擇token。這里使用softmax門控函數(shù),通過專家模型或者tokens,對概率分布進行建模,并選擇top k。

由此,我們可知MoE層在Transformer中發(fā)揮了重要的作用。

每個專家都可以專門處理不同的任務或數(shù)據(jù)的不同部分;使用MoE可以在不增加推理成本的情況下向LLM添加可學習參數(shù);

此外,MoE還有助于對稀疏矩陣進行高效計算;而MoE中的專家層可以并行計算,這樣就有效利用了GPU的并行能力。

最后,MoE在幫助減少訓練時間的同時,還可以做到有效地擴展模型,以更低的計算成本獲得更好的結果。

MoE開源再受關注

在Mistral放出這個開源的7B×8E的MoE之前,英偉達和谷歌也放出過其他完全開源的MoE。

曾在英偉達實習的新加坡國立大學博士生Fuzhao Xue表示,他們的團隊在4個月前也開源了一個80億參數(shù)的MoE模型。

項目地址:https://github.com/XueFuzhao/OpenMoE

數(shù)據(jù)來源

- 一半來自The RedPajama,另一半來自The Stack Dedup

- 為提升模型的推理能力,采用了大量的編程相關數(shù)據(jù)

模型架構

- OpenMoE模型基于「ST-MoE」,但采用了decoder-only架構。

其它設計

- 采用umT5 tokenizer

- 使用RoPE技術

- 采用SwiGLU激活函數(shù)

- 設定2000 token的上下文長度

BigBench評估

團隊在BigBench-Lite上進行了少樣本測試,其中包括與BIG-G、BIG-G-Sparse以及GPT-3的對比。

通過計算每個詞元激活的參數(shù)數(shù)量和訓練詞元的數(shù)量來大致估計相對成本。圖中每個點的大小代表了相應詞元激活的參數(shù)數(shù)量。特別需要指出的是,淺灰色的點表示MoE模型的總參數(shù)量。

對此,Jim Fan也表示,MoE并不新鮮,它只是沒有得到那么多關注而已......

比如,谷歌很早之前就開源了基于T5的MoE模型——Switch Transformer。

面臨的挑戰(zhàn)和機遇

MoE基礎設施建設

由于MoE擁有大量可訓練參數(shù),理想的軟件環(huán)境應該支持靈活組合的專家級、張量級、流水線級和數(shù)據(jù)并行,無論是節(jié)點內還是節(jié)點間。

此外,如果能支持簡單快速的激活卸載和權重量化,從而減輕MoE權重的內存占用,就更好了。

MoE指令微調

FLAN-MoE研究提出:盡管將MoE的性能通過特定任務的微調轉移到下游任務上存在挑戰(zhàn),但指令微調卻能有效地與MoE模型協(xié)調一致。這展示了基于MoE的語言模型巨大的潛力。

MoE 評估

MoE模型的歸納偏置(Inductive bias)可能在困惑度(perplexity)之外還有其他效果,就像其他自適應模型(如Universal Transformer和AdaTape)那樣。

硬件挑戰(zhàn)

值得一提的是,GPU在跨節(jié)點通信方面面臨挑戰(zhàn),因為每個節(jié)點通常只能配備有限數(shù)量的GPU。這使得專家并行中,通信成為瓶頸。

幸運的是,NVIDIA最近推出了DGX GH200,將256個NVIDIA Grace Hopper Superchips集成到一個單一GPU中,很大程度上解決了通信帶寬問題,為開源領域的MoE模型的訓練和部署提供了幫助。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-12-12 13:57:00

GPT-3.5MistralAI

2019-08-29 10:46:42

2010-01-18 17:02:06

2022-02-25 08:55:19

BitMapRedis面試題

2022-02-10 09:04:18

RediSDS數(shù)據(jù)結構

2010-01-15 09:43:49

Windows 7殺手

2025-03-03 04:20:00

2009-04-08 08:29:01

蘋果諾基亞移動OS

2012-12-19 13:00:36

飛魚星WLANVF16

2023-05-15 12:32:29

GPT-4開源

2010-03-23 17:06:01

2015-06-15 14:48:21

蘋果iOS9軟實力

2025-06-05 09:08:43

2011-06-27 22:08:42

臺式機評測

2022-12-23 10:50:20

模型開源

2013-08-13 09:07:20

大數(shù)據(jù)

2011-07-04 10:00:02

虛擬化

2014-12-01 15:20:36

微信點評商家

2015-08-11 14:38:34

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一二三区视频 | 久久蜜桃av一区二区天堂 | 亚洲精品一区二区三区蜜桃久 | 久久成人免费 | 日本成人福利 | 丁香久久 | 美女爽到呻吟久久久久 | h视频在线免费看 | 国产乱码精品一区二区三区中文 | 亚卅毛片 | 在线观看不卡av | 午夜丰满少妇一级毛片 | 天天综合干 | 欧美成人a | 日韩精品色网 | 成人毛片在线视频 | 天天操夜夜爽 | 中文字幕在线观看国产 | 好婷婷网 | 国产乱码精品一区二区三区中文 | 久久偷人 | 欧美精品一区二区在线观看 | 国产在线精品一区二区三区 | 在线观看亚洲专区 | 国产精品色 | 99色在线 | av色站| 日韩网站在线观看 | 中文字幕在线观 | 97在线超碰 | 欧美炮房 | 综合久久亚洲 | 狠狠的干狠狠的操 | av中文字幕在线观看 | 久久高清免费视频 | av中文字幕在线 | 亚洲精品视频免费观看 | 日韩免费| 国产一区免费视频 | 亚洲成人一区二区三区 | 国产亚洲精品精品国产亚洲综合 |