成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

碾壓LLaMA,「獵鷹」徹底開源!400億參數,萬億token訓練,霸榜Hugging Face

人工智能 新聞
來自阿聯酋的免費商用開源大模型登頂Hagging Face排行榜,AI大模型創業者的春天就這樣到來了。

大模型時代,什么最重要?

LeCun曾經給出的答案是:開源。

圖片

當Meta的LLaMA的代碼在GitHub上被泄露時,全球的開發者們都可以訪問這個第一個達到GPT水平的LLM。

接下來,各種各樣的LLM給AI模型開源賦予了各種各樣的角度。

LLaMA給斯坦福的Alpac和Vicuna等模型鋪設了道路,搭好了舞臺,讓他們成為了開源的領頭羊。

而就在此時,獵鷹「Falcon」又殺出了重圍。

Falcon 獵鷹

「Falcon」由阿聯酋阿布扎比的技術創新研究所(TII)開發,從性能上看,Falcon比LLaMA的表現更好。

目前,「Falcon」有三個版本——1B、7B和40B。

TII表示,Falcon迄今為止最強大的開源語言模型。其最大的版本,Falcon 40B,擁有400億參數,相對于擁有650億參數的LLaMA來說,規模上還是小了一點。

規模雖小,性能能打。

先進技術研究委員會(ATRC)秘書長Faisal Al Bannai認為,「Falcon」的發布將打破LLM的獲取方式,并讓研究人員和創業者能夠以此提出最具創新性的使用案例。

FalconLM的兩個版本,Falcon 40B Instruct和Falcon 40B在Hugging Face OpenLLM排行榜上位列前兩名,而Meta的LLaMA位于第三。

圖片

值得一提的是,Hugging Face是通過四個當前比較流形的基準——AI2 Reasoning Challenge,HellaSwag,MMLU和TruthfulQA對這些模型進行評估的。

盡管「Falcon」的論文目前還沒公開發布,但Falcon 40B已經在經過精心篩選的1萬億token網絡數據集的上進行了大量訓練。

研究人員透露,「Falcon」在訓練過程非常重視在大規模數據上實現高性能的重要性。

我們都知道的是,LLM對訓練數據的質量非常敏感,這就是為什么研究人員會花大量的精力構建一個能夠在數萬個CPU核心上進行高效處理的數據管道。

目的就是,在過濾和去重的基礎上從網絡中提取高質量的內容。

目前,TII已經發布了精煉的網絡數據集,這是一個經過精心過濾和去重的數據集。實踐證明,非常有效。

僅用這個數據集訓練的模型可以和其它LLM打個平手,甚至在性能上超過他們。這展示出了「Falcon」卓越的質量和影響力。

圖片

此外,Falcon模型也具有多語言的能力。

它理解英語、德語、西班牙語和法語,并且在荷蘭語、意大利語、羅馬尼亞語、葡萄牙語、捷克語、波蘭語和瑞典語等一些歐洲小語種上也懂得不少。

Falcon 40B還是繼H2O.ai模型發布后,第二個真正開源的模型。然而,由于H2O.ai并未在此排行榜上與其他模型進行基準對比,所以這兩個模型還沒上過擂臺。

而回過頭看LLaMA,盡管它的代碼在GitHub上可以獲取,但它的權重(weights)從未開源。

這意味著該模型的商業使用受到了一定程度的限制。

而且,LLaMA的所有版本都依賴于原始的LLaMA許可證,這就使得LLaMA不適合小規模的商業應用。

在這一點上,「Falcon」又拔得了頭籌。

唯一免費的商用大模型!

Falcon是目前唯一的可以免費商用的開源模型。

在早期,TII要求,商業用途使用Falcon,如果產生了超過100萬美元以上的可歸因收入,將會收取10%的「使用稅」。

可是財大氣粗的中東土豪們沒過多長時間就取消了這個限制。

至少到目前為止,所有對Falcon的商業化使用和微調都不會收取任何費用。

土豪們表示,現在暫時不需要通過這個模型掙錢。

而且,TII還在全球征集商用化方案。

對于有潛力的科研和商業化方案,他們還會提供更多的「訓練算力支持」,或者提供進一步的商業化機會。

圖片

項目提交郵箱:Submissions.falconllm@tii.ae

這簡直就是在說:只要項目好,模型免費用!算力管夠!錢不夠我們還能給你湊!

對于初創企業來說,這簡直就是來自中東土豪的「AI大模型創業一站式解決方案」。

高質量的訓練數據

根據開發團隊稱,FalconLM 競爭優勢的一個重要方面是訓練數據的選擇。

研究團隊開發了一個從公共爬網數據集中提取高質量數據并刪除重復數據的流程。

在徹底清理多余重復內容后,保留了 5 萬億的token——足以訓練強大的語言模型。

40B的Falcon LM使用1萬億個token進行訓練, 7B版本的模型訓練token達到 1.5 萬億。

圖片

(研究團隊的目標是使用RefinedWeb數據集從Common Crawl中僅過濾出質量最高的原始數據)

更加可控的訓練成本

TII稱,與GPT-3相比,Falcon在只使用75%的訓練計算預算的情況下,就實現了顯著的性能提升。

圖片

圖片

而且在推斷(Inference)時只需要只需要20%的計算時間。

Falcon的訓練成本,只相當于Chinchilla的40%和PaLM-62B的80% 。

成功實現了計算資源的高效利用。

責任編輯:張燕妮 來源: 新智元
相關推薦

2023-09-07 13:25:00

AI模型

2024-04-09 13:21:00

AI開源

2023-06-09 12:56:17

AlpacaWizardLMVicuna

2023-11-06 11:26:55

模型開源

2024-05-20 15:19:41

AI數據

2023-09-18 09:36:58

微軟模型

2023-07-18 15:05:00

開源大模型

2023-06-07 14:08:00

計算機代碼

2024-05-06 12:22:00

AI訓練

2024-01-02 09:10:17

k開源數據

2023-07-10 14:35:53

2024-04-01 12:10:48

數據訓練

2023-10-08 09:00:00

LLMGitHub人工智能

2023-05-19 10:26:01

谷歌模型

2023-10-04 08:16:04

2025-01-24 13:56:25

2023-06-27 13:48:00

清華開源

2023-02-28 07:03:09

AIMeta大型語言

2023-12-06 15:40:17

AI

2024-08-28 08:25:25

Python預訓練模型情緒數據集
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美午夜一区 | 精品成人 | 久久久男人的天堂 | 亚洲韩国精品 | 毛片一区二区三区 | 国外激情av | 狠狠热视频 | 欧美中文视频 | 亚洲国产欧美一区二区三区久久 | 久久99精品国产 | 色综合一区二区 | 婷婷精品 | 免费人成激情视频在线观看冫 | 欧美高清视频一区 | 精品亚洲一区二区三区 | 精品国产精品国产偷麻豆 | 一区二区三区在线免费看 | 欧美日韩在线综合 | 久久久精品视频一区二区三区 | 欧美黄色网 | 久久成人精品视频 | 中文字幕第二区 | 91亚洲精选| 国产高清在线精品一区二区三区 | 日韩一二三 | 国产成人在线视频播放 | 黄色免费三级 | 中文字幕综合 | 精品伊人 | 国产高清精品一区二区三区 | 视频一区在线 | 黑人巨大精品欧美一区二区一视频 | 不卡一区二区在线观看 | 日韩欧美中文字幕在线观看 | 亚洲精品在线播放 | 中文字幕免费在线 | 成人免费一区二区三区视频网站 | 亚洲36d大奶网 | 玖玖国产精品视频 | 亚洲欧美精品 | 91精品国产高清一区二区三区 |