成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

夠快!爆火的ChatGPT等價(jià)開(kāi)源項(xiàng)目來(lái)了,網(wǎng)友:我擔(dān)心跑不起來(lái)

人工智能
最近一段時(shí)間,由 OpenAI 開(kāi)發(fā)的 AI 聊天機(jī)器人程序 ChatGPT 橫掃各大 AI 社區(qū),大家對(duì)它的熱情只增不減,不斷挖掘其潛力。

?最近一段時(shí)間,由 OpenAI 開(kāi)發(fā)的 AI 聊天機(jī)器人程序 ChatGPT 橫掃各大 AI 社區(qū),大家對(duì)它的熱情只增不減,不斷挖掘其潛力。

有些研究者坐不住了,開(kāi)始琢磨怎樣才能開(kāi)發(fā)個(gè)等同于 ChatGPT 的開(kāi)源軟件。還沒(méi)有行動(dòng)的小伙伴這次參考示例來(lái)了,下面我們將要介紹的這個(gè)項(xiàng)目(PaLM + RLHF)就實(shí)現(xiàn)了這樣的功能。

圖片

項(xiàng)目地址:https://github.com/lucidrains/PaLM-rlhf-pytorch

該項(xiàng)目是在 PaLM 架構(gòu)之上實(shí)施 RLHF(人類反饋強(qiáng)化學(xué)習(xí))。基本上等同于 ChatGPT,區(qū)別是使用了 PaLM。PaLM 是在谷歌的通用 AI 架構(gòu)「Pathways」上訓(xùn)練而成的具有 5400 億參數(shù)的大型語(yǔ)言模型。而 RLHF,是 ChatGPT 在 GPT 3.5 系列模型的基礎(chǔ)上,引入「人工標(biāo)注數(shù)據(jù) + 強(qiáng)化學(xué)習(xí)」(RLHF)來(lái)不斷微調(diào)預(yù)訓(xùn)練語(yǔ)言模型,旨在讓大型語(yǔ)言模型(LLM)學(xué)會(huì)理解人類的命令,并學(xué)會(huì)根據(jù)給定的 prompt 給出最優(yōu)的答案。

想要了解 RLHF 更多內(nèi)容,可以參考:https://huggingface.co/blog/rlhf

正如網(wǎng)友所說(shuō)的:「在 AI 領(lǐng)域中,每有一次專項(xiàng)突破,開(kāi)發(fā)者們很快就會(huì)復(fù)現(xiàn)出一個(gè)開(kāi)源版本。」

圖片

不過(guò)該項(xiàng)目目前只包含訓(xùn)練架構(gòu)和代碼,沒(méi)有預(yù)先訓(xùn)練好的權(quán)重。在使用說(shuō)明上,文檔也顯示必須先要訓(xùn)練 PaLM。

對(duì)此也有網(wǎng)友表示擔(dān)心,表示:這不是一個(gè)開(kāi)箱即用的項(xiàng)目,還只是一個(gè)架構(gòu),就像 shell 一樣,需要昂貴的開(kāi)銷才能訓(xùn)練完成,沒(méi)有機(jī)構(gòu)能夠像谷歌那樣訓(xùn)練 PaLM。

圖片

還有網(wǎng)友表示:「沒(méi)有預(yù)訓(xùn)練權(quán)重是非常糟糕的,官方至少需要釋放 50% 的稀疏權(quán)重,剩下的讓開(kāi)發(fā)者自己訓(xùn)練,才是最好的選擇?!?/p>

圖片

不過(guò)也有網(wǎng)友表示自己會(huì)去嘗試:

圖片

下面我們來(lái)看看這個(gè)項(xiàng)目是如何運(yùn)行的。

安裝

$ pip install palm-rlhf-pytorch

用法

首先訓(xùn)練 PaLM,就像任何其他自回歸 transformer 一樣。

import torch
from palm_rlhf_pytorch import PaLM
palm = PaLM(
num_tokens = 20000,
dim = 512,
depth = 12
).cuda()
seq = torch.randint(0, 20000, (1, 2048)).cuda()
loss = palm(seq, return_loss = True)loss.backward()
# after much training, you can now generate sequences
generated = palm.generate(2048) # (1, 2048)

接著使用精選的人類反饋來(lái)訓(xùn)練獎(jiǎng)勵(lì)模型。在原始論文中,在沒(méi)有出現(xiàn)過(guò)擬合的情況下,無(wú)法從預(yù)訓(xùn)練 transformer 中獲得微調(diào)的獎(jiǎng)勵(lì)模型。項(xiàng)目作者則提供了使用 LoRA 進(jìn)行微調(diào)的選項(xiàng)。

import torch
from palm_rlhf_pytorch import PaLM, RewardModel
palm = PaLM(
num_tokens = 20000,
dim = 512,
depth = 12,
causal = False
)
reward_model = RewardModel(
palm,
num_binned_output = 5 # say rating from 1 to 5
).cuda()
# mock data
seq = torch.randint(0, 20000, (1, 1024)).cuda()prompt_mask = torch.zeros(1, 1024).bool().cuda() # which part of the sequence is prompt, which part is response
labels = torch.randint(0, 5, (1,)).cuda()
# train
loss = reward_model(seq, prompt_mask = prompt_mask, labels = labels)loss.backward()
# after much training
reward = reward_model(seq, prompt_mask = prompt_mask)

最后將 transformer 和獎(jiǎng)勵(lì)模型傳遞給 RLHFTrainer。

import torch
from palm_rlhf_pytorch import PaLM, RewardModel, RLHFTrainer
# load your pretrained palm
palm = PaLM(
num_tokens = 20000,
dim = 512,
depth = 12
).cuda()
palm.load('./path/to/pretrained/palm.pt')
# load your pretrained reward model
reward_model = RewardModel(
palm,
num_binned_output = 5
).cuda()
reward_model.load('./path/to/pretrained/reward_model.pt')
# ready your list of prompts for reinforcement learning
prompts = torch.randint(0, 256, (50000, 512)).cuda() # 50k prompts
# pass it all to the trainer and train
trainer = RLHFTrainer(
palm = palm,
reward_model = reward_model,
prompt_token_ids = prompts
)
trainer.train(num_episodes = 50000)
# then, if it succeeded...
# generate say 10 samples and use the reward model to return the best one
answer = trainer.generate(2048, prompt = prompts[0], num_samples = 10) # (<= 2048,)
責(zé)任編輯:趙寧寧 來(lái)源: 機(jī)器之心
相關(guān)推薦

2022-12-05 15:03:01

2023-05-25 13:59:12

ChatGPT模型

2011-09-06 09:37:04

MTK平臺(tái)

2023-01-31 07:42:29

代碼JDKMaven

2024-02-23 09:02:21

前端開(kāi)源項(xiàng)目

2023-04-03 09:56:22

模型系統(tǒng)

2019-08-22 17:22:41

人工智能機(jī)器學(xué)習(xí)技術(shù)

2015-05-07 10:47:16

安卓市場(chǎng)

2023-07-04 10:18:25

開(kāi)源模型

2023-03-02 11:44:08

AI技術(shù)

2023-02-09 12:31:20

2013-09-12 15:51:56

2023-05-11 15:27:06

2023-03-08 13:06:03

2022-12-12 09:01:03

2024-10-29 15:29:06

2024-03-01 17:01:15

GraphQL后端

2022-12-06 13:56:03

AI模型

2025-01-21 12:44:50

2014-06-30 11:30:21

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號(hào)

主站蜘蛛池模板: 在线看日韩 | 黄免费观看视频 | a级片在线 | 中文字幕日韩欧美 | 免费在线观看91 | 国产玖玖 | 久久综合九色综合欧美狠狠 | a级毛片基地 | 欧美日韩在线播放 | 日韩电影免费观看中文字幕 | 国产精品亚洲一区二区三区在线观看 | 日韩欧美国产一区二区三区 | 国产97视频在线观看 | 亚洲国产欧美一区二区三区久久 | 97久久精品午夜一区二区 | 国产精品久久久久久久7电影 | 成人午夜在线视频 | 国内久久| 精品综合久久久 | 欧美日韩视频网站 | 午夜小视频在线观看 | 日韩欧美国产精品综合嫩v 一区中文字幕 | 日韩午夜| 日韩一区二区在线视频 | 久久成人精品 | 青青激情网| 成人在线视频免费观看 | 国产蜜臀 | 九九热精品视频 | 日韩中文字幕免费 | 免费视频一区二区 | 日日操夜夜操天天操 | 99久久精品一区二区毛片吞精 | 美女久久 | 日韩国产精品一区二区三区 | 国产精品国产a级 | 综合久久久久 | 国产精品区一区二区三区 | 亚洲视频网| 国产91精品久久久久久久网曝门 | 免费高潮视频95在线观看网站 |