成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Meta開源的ChatGPT平替到底好不好用?測試結(jié)果、加料改裝方法已出爐,2天5.2k星

人工智能 新聞
Meta 開源的大模型系列 LLaMA 評測出爐,對比結(jié)果顯示,和 ChatGPT 還是有差距的。

ChatGPT 的持續(xù)爆火,早已讓各大科技公司坐不住了。

就在剛剛過去的一周,Meta「開源」了一個新的大模型系列 ——??LLaMA???(Large Language Model Meta AI),參數(shù)量從 70 億到 650 億不等。因為 LLaMA 比之前發(fā)布的很多大模型參數(shù)更少,但性能更好,所以一經(jīng)發(fā)布讓很多研究者興奮不已。

例如,130 億參數(shù)的 LLaMA 模型「在大多數(shù)基準上」可以勝過參數(shù)量達 1750 億的 GPT-3,而且可以在單塊 V100 GPU 上運行;而最大的 650 億參數(shù)的 LLaMA 模型可以媲美谷歌的 Chinchilla-70B 和 PaLM-540B。

參數(shù)量的減少對于普通研究者和商業(yè)機構(gòu)來說都是好事,但 LLaMA 真的像論文中說得那樣表現(xiàn)那么好嗎?和當前的 ChatGPT 相比,LLaMA 是否可以勉強一戰(zhàn)?為了解答這些疑問,有些研究者已經(jīng)對這一模型進行了測試。

還有公司已經(jīng)在嘗試補齊 LLaMA 短板,想看能不能通過添加 RLHF 等訓(xùn)練方法讓 LLaMA 表現(xiàn)更好。

LLaMA 初步評測

這份評測結(jié)果來自一位名叫 @Enryu 的 Medium 作者。它比較了 LLaMA 和 ChatGPT 在解釋笑話、零樣本分類和代碼生成三個頗具挑戰(zhàn)性的任務(wù)中的效果。相關(guān)博客文章為《Mini-post: first look at LLaMA》。

作者在 RTX 3090/RTX 4090 上運行 LLaMA 7B/13B 版本,在單個 A100 上運行 33B 版本。

需要注意的是,與 ChatGPT 不同,其他模型并不是基于指令微調(diào),因此 prompt 的結(jié)構(gòu)有所不同。

解釋笑話

這是谷歌原始 PaLM 論文中展示的一個用例:給出一個笑話,讓模型來解釋它為什么好笑。該任務(wù)需要將世界知識和一些基本邏輯相結(jié)合。PaLM 之前的所有模型都無法做到這一點。作者從 PaLM 論文中提取了一些示例,比較了 LLaMA-7B、LLaMA-13B、LLaMA-33B 與 ChatGPT 的表現(xiàn)。

圖片


可以看到,結(jié)果很糟糕。這些模型 get 到了一些笑點,但無法真正理解,它們只是隨機生成一些相關(guān)的文本流。ChatGPT 雖與 LLaMA-33B 一樣表現(xiàn)很差(其他幾個模型更差),但它遵循了不一樣的策略:生成了一大堆文本,希望自己的回答至少有一部分是正確的(但大部分顯然不是),是不是很像大家考試時應(yīng)對問答題的策略?

不過,ChatGPT 起碼 get 到了關(guān)于 Schmidthuber 的笑話。但總的來說,這些模型在零樣本笑話解釋任務(wù)上的效果與 PaLM 相差甚遠(除非 PaLM 的示例是精心挑選)。

零樣本分類

作者考慮的第二項任務(wù)更具挑戰(zhàn)性 —— 標題黨(clickbait)分類。由于連人類也無法就什么是標題黨達成一致,作者在 prompt 中為這些模型提供了一些示例(因此實際上是小樣本而非零樣本)。如下為 LLaMa 的 prompt:

I will tell whether the following news titles are clickbait:
1) The WORST care homes in England: Interactive map reveals the lowest-rated 2,530 residences - so is there one near you?
Clickbait: yes
2) Netflix's top 10 most-watched movies of all time
Clickbait: yes
3) Peering Through the Fog of Inflation
Clickbait: no
4) You’ll never believe which TV cook this cheeky chap grew up to be
Clickbait: yes

下圖為 LLaMA-7B、LLaMA-13B、LLaMA-33B 與 ChatGPT 的更多示例結(jié)果。

圖片

很明顯,贏家為 LLaMA-33B,它是唯一一個能夠遵循所有請求格式(yes/no)的模型,并且預(yù)測合理。ChatGPT 也還可以,但有些預(yù)測不太合理,格式也有錯誤。較小的模型(7B/13B)不適用于該任務(wù)。

代碼生成

雖然 LLM 擅長人文學(xué)科,但在 STEM 學(xué)科上表現(xiàn)糟糕。LLaMA 雖然有基準測試結(jié)果,但作者在代碼生成領(lǐng)域嘗試了一些特別的東西,即將人類語言零樣本地轉(zhuǎn)換為 SQL 查詢。這并不是很實用,在現(xiàn)實生活中直接編寫查詢會更有效率。這里只作為代碼生成任務(wù)的一個示例。

在 prompt 中,作者提供表模式(table schema)以及想要實現(xiàn)的目標,要求模型給出 SQL 查詢。如下為一些隨機示例,老實說,ChatGPT 看起來效果更好。

-- We have a table `events` with columns `event_id`, `timestamp`, `user_id`, `rpc_method`.
-- We want to count how many users issued request "Login" over the last week.
-- SQL query for this is:

-- 7b
SELECT count (*)
FROM events
WHERE user_id IN (SELECT user_id
FROM events
WHERE timestamp >= NOW () - INTERVAL 7 DAY)
AND rpc_method = 'Login';

-- 13b
SELECT COUNT (*) FROM events WHERE rpc_method = "Login"
AND UNIX_TIMESTAMP (timestamp) >= UNIX_TIMESTAMP (CURRENT_DATE - INTERVAL 7 DAY)

-- 33b
SELECT user_id,
COUNT (DISTINCT user_id) AS total
FROM events
WHERE timestamp BETWEEN TIMESTAMP '2013-08-14 00:00:00' AND TIMESTAMP '2013-08-21 00:00:00'
AND rpc_method = 'Login'
GROUP BY user_id

-- ChatGPT
SELECT COUNT (DISTINCT user_id)
FROM events
WHERE rpc_method = 'Login'
AND timestamp >= DATE_SUB (NOW (), INTERVAL 1 WEEK);

從測試結(jié)果來看,LLaMA 在一些任務(wù)上表現(xiàn)還不錯,但在另一些任務(wù)上和 ChatGPT 還有一些差距。如果能像 ChatGPT 一樣加入一些「訓(xùn)練秘籍」,效果會不會大幅提升?

加入 RLHF,初創(chuàng)公司 Nebuly AI 開源 ChatLLaMA 訓(xùn)練方法

雖然 LLaMA 發(fā)布之初就得到眾多研究者的青睞,但是少了 RLHF 的加持,從上述評測結(jié)果來看,還是差點意思。

在 LLaMA 發(fā)布三天后,初創(chuàng)公司 Nebuly AI 開源了 RLHF 版 LLaMA(ChatLLaMA)的訓(xùn)練方法。它的訓(xùn)練過程類似 ChatGPT,該項目允許基于預(yù)訓(xùn)練的 LLaMA 模型構(gòu)建 ChatGPT 形式的服務(wù)。項目上線剛剛 2 天,狂攬 5.2K 星。

圖片

項目地址:https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama

ChatLLaMA 訓(xùn)練過程算法實現(xiàn)主打比 ChatGPT 訓(xùn)練更快、更便宜,我們可以從以下四點得到驗證:

  • ChatLLaMA 是一個完整的開源實現(xiàn),允許用戶基于預(yù)訓(xùn)練的 LLaMA 模型構(gòu)建 ChatGPT 風格的服務(wù);
  • 與 ChatGPT 相比,LLaMA 架構(gòu)更小,但訓(xùn)練過程和單 GPU 推理速度更快,成本更低;
  • ChatLLaMA 內(nèi)置了對 DeepSpeed ZERO 的支持,以加速微調(diào)過程;
  • 該庫還支持所有的 LLaMA 模型架構(gòu)(7B、13B、33B、65B),因此用戶可以根據(jù)訓(xùn)練時間和推理性能偏好對模型進行微調(diào)。

圖片

圖源:https://openai.com/blog/chatgpt

更是有研究者表示,ChatLLaMA 比 ChatGPT 訓(xùn)練速度最高快 15 倍。

圖片

不過有人對這一說法提出質(zhì)疑,認為該項目沒有給出準確的衡量標準。

圖片

項目剛剛上線 2 天,還處于早期階段,用戶可以通過以下添加項進一步擴展:

  • 帶有微調(diào)權(quán)重的 Checkpoint;
  • 用于快速推理的優(yōu)化技術(shù);
  • 支持將模型打包到有效的部署框架中。

Nebuly AI 希望更多人加入進來,創(chuàng)造更高效和開放的 ChatGPT 類助手。

該如何使用呢?首先是使用 pip 安裝軟件包:

pip install chatllama-py

然后是克隆 LLaMA 模型:

git clone https://github.com/facebookresearch/llama.gitcd llama
pip install -r requirements.txt
pip install -e .

一切準備就緒后,就可以運行了,項目中介紹了 ChatLLaMA 7B 的訓(xùn)練示例,感興趣的小伙伴可以查看原項目。

責任編輯:張燕妮 來源: 機器之心
相關(guān)推薦

2021-03-05 19:43:56

數(shù)字人民幣數(shù)字貨幣區(qū)塊鏈

2010-02-06 16:36:59

Android手機

2020-03-26 14:09:07

iPad Pro評測評分

2023-04-02 21:39:14

ChatGPT開源

2020-07-02 15:55:34

微軟數(shù)據(jù)恢復(fù)應(yīng)用商店

2013-01-14 11:36:00

一體機

2024-11-04 14:26:14

2023-03-07 13:31:45

模型泄漏

2019-05-09 18:24:28

Windows 10Windows操作系統(tǒng)

2009-11-25 10:08:41

Cisco無線路由

2021-05-13 09:27:13

JavaThreadLocal線程

2023-04-20 14:43:38

Linux模型GPT4

2023-03-13 12:32:45

ChatGPT開源

2021-05-10 07:35:11

SwaggeYApi部署

2014-10-20 10:53:13

ArubaWi-Fi無線網(wǎng)絡(luò)

2014-08-25 13:13:54

傲游瀏覽器

2023-03-13 00:21:21

調(diào)試器斷點開發(fā)者

2020-03-16 13:44:24

會議軟件在線辦公遠程會議

2020-03-19 14:30:13

Windows觸摸板MacBook

2014-02-21 10:20:40

點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 国产99久久精品一区二区永久免费 | 一区二区精品 | 欧美一级精品片在线看 | 男女久久久 | 日韩毛片在线免费观看 | 欧美一区二区免费 | 国产高清一区二区三区 | 亚洲在线一区二区三区 | 91精品国产乱码久久久久久久久 | h肉视频 | 欧美日韩中文在线 | 国产精品视频在线播放 | 精品一二三区视频 | 日韩欧美三级在线 | 国产成人精品免费视频大全最热 | 99视频在线免费观看 | 国产精品视频在线免费观看 | 国产视频线观看永久免费 | 中文字幕在线观看一区二区 | 视频一区在线观看 | 欧美精品一区二区在线观看 | 欧美日韩国产一区二区三区 | 久久精品国产99国产精品 | 亚洲综合中文字幕在线观看 | 国产四区| www.yw193.com| 国产色片在线 | 在线婷婷 | 91精品国产乱码久久久久久 | 欧美多人在线 | 欧美二三区 | 免费一看一级毛片 | 精品一区二区久久久久久久网站 | 91精品国产一区二区三区蜜臀 | 国产精品一区二区av | 国产欧美综合在线 | 在线一区二区观看 | 国产精品久久久久久二区 | 午夜理伦三级理论三级在线观看 | 一级毛片视频在线观看 | 亚洲一区影院 |