成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Meta教你5步學會用Llama2:我見過最簡單的大模型教學

人工智能 新聞
本文是 Meta 官網推出的 Llama2 使用教學博客,簡單 5 步教會你如何使用 Llama2。

在這篇博客中,Meta 探討了使用 Llama 2 的五個步驟,以便使用者在自己的項目中充分利用 Llama 2 的優勢。同時詳細介紹 Llama 2 的關鍵概念、設置方法、可用資源,并提供一步步設置和運行 Llama 2 的流程。

Meta 開源的 Llama 2 包括模型權重和初始代碼,參數范圍從 7B 到 70B。Llama 2 的訓練數據比 Llama 多了 40%,上下文長度也多一倍,并且 Llama 2 在公開的在線數據源上進行了預訓練。

圖片

Llama2 參數說明圖

圖片

Llama2 流程說明圖

在推理、編碼、熟練程度和知識測試等多項外部基準測試中,Llama 2 的表現均優于其他開放式語言模型。Llama 2 可免費用于研究和商業用途。

下一節中將介紹使用 Llama 2 的 5 個步驟。在本地設置 Llama 2 有多種方法,本文討論其中一種方法,它能讓你輕松設置并快速開始使用 Llama。

開始使用 Llama2

步驟 1:前置條件和依賴項

本文將使用 Python 編寫腳本來設置并運行 pipeline 任務,并使用 Hugging Face 提供的 Transformer 模型和加速庫。

pip install transformers
pip install accelerate

步驟 2:下載模型權重

本文使用的模型可在 Meta 的 Llama 2 Github 倉庫中找到。通過此 Github 倉庫下載模型需要完成兩步:

  • 訪問 Meta 網站,接受許可并提交表格。請求通過后才能收到在電子郵件中的預簽名 URL;
  • 克隆 Llama 2 知識庫到本地。
git clone https://github.com/facebookresearch/llama

啟動 download.sh 腳本(sh download.sh)。出現提示時,輸入在電子郵件中收到的預指定 URL。

  • 選擇要下載的模型版本,例如 7b-chat。然后就能下載 tokenizer.model 和包含權重的 llama-2-7b-chat 目錄。

運行 ln -h ./tokenizer.model ./llama-2-7b-chat/tokenizer.model,創建在下一步的轉換時需要使用的 tokenizer 的鏈接。

轉換模型權重,以便與 Hugging Face 一起運行:

TRANSFORM=`python -c"import transformers;print ('/'.join (transformers.__file__.split ('/')[:-1])+'/models/llama/convert_llama_weights_to_hf.py')"`
pip install protobuf && python $TRANSFORM --input_dir ./llama-2-7b-chat --model_size 7B --output_dir ./llama-2-7b-chat-hf

Meta 在 Hugging Face 上提供了已轉換的 Llama 2 權重。要使用 Hugging Face 上的下載,必須按照上述步驟申請下載,并確保使用的電子郵件地址與 Hugging Face 賬戶相同。

步驟 3:編寫 python 腳本

接下來創建一個 Python 腳本,該腳本將包含加載模型和使用 Transformer 運行推理所需的所有代碼。

導入必要的模塊

首先需要在腳本中導入以下必要模塊:LlamaForCausalLM 是 Llama 2 的模型類,LlamaTokenizer 為模型準備所需的 prompt,pipeline 用于生成模型的輸出,torch 用于引入 PyTorch 并指定想要使用的數據類型。

import torch
import transformers
from transformers import LlamaForCausalLM, LlamaTokenizer

加載模型

接下來,用下載好并轉換完成的權重(本例中存儲在 ./llama-2-7b-chat-hf 中)加載 Llama 模型。

model_dir = "./llama-2-7b-chat-hf"
model = LlamaForCausalLM.from_pretrained (model_dir)

定義并實例化分詞器和流水線任務

在最終使用之前確保為模型準備好輸入,這可以通過加載與模型相關的 tokenizer 來實現。在腳本中添加以下內容,以便從同一模型目錄初始化 tokenizer:

tokenizer = LlamaTokenizer.from_pretrained (model_dir)

接下來還需要一種方法來賦予模型推理的能力。pipeline 模塊能指定 pipeline 任務運行所需的任務類型(text-generation)、推理所需的模型(model)、定義使用該模型的精度(torch.float16)、pipeline 任務運行的設備(device_map)以及其他各種配置。

在腳本中添加以下內容,以實例化用于運行示例的流水線任務:

pipeline = transformers.pipeline (
"text-generation",
model=model,
tokenizer=tokenizer,
torch_dtype=torch.float16,
device_map="auto",
)

運行 pipeline 任務

在定義了 pipeline 任務后,還需要提供一些文本提示,作為 pipeline 任務運行時生成響應(序列)的輸入。下面示例中的 pipeline 任務將 do_sample 設置為 True,這樣就可以指定解碼策略,從整個詞匯表的概率分布中選擇下一個 token。本文示例腳本使用的是 top_k 采樣。

通過更改 max_length 可以指定希望生成響應的長度。將 num_return_sequences 參數設置為大于 1,可以生成多個輸出。在腳本中添加以下內容,以提供輸入以及如何運行 pipeline 任務的信息:

sequences = pipeline (
'I have tomatoes, basil and cheese at home. What can I cook for dinner?\n',
do_sample=True,
top_k=10,
num_return_sequences=1,
eos_token_id=tokenizer.eos_token_id,
max_length=400,
)
for seq in sequences:
print (f"{seq ['generated_text']}")

步驟 4:運行 Llama

現在,這個腳本已經可以運行了。保存腳本,回到 Conda 環境,輸入

python < 腳本名稱 >.py

并按回車鍵來運行腳本。

如下圖所示,開始下載模型,顯示 pipeline 任務的進展,以及輸入的問題和運行腳本后生成的答案:

圖片

本地運行 2-7b-chat-hf

現在可以在本地設置并運行 Llama 2。通過在字符串參數中提供不同的提示來嘗試不同的提示。你還可以通過在加載模型時指定模型名稱來加載其他 Llama 2 模型。下一節中提到的其他資源可以幫你了解更多 Llama 2 工作原理的信息,以及可用于幫助入門的各種資源。

步驟 5:能力拔高

要了解有關 Llama 2 工作原理、訓練方法和所用硬件的更多信息,請參閱 Meta 的論文《Llama 2: Open Foundation and Fine-Tuned Chat Models》,其中對這些方面進行了更詳細的介紹。

論文地址:https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/

從 Meta 的 Llama 2 Github repo 獲取模型源代碼,源代碼展示了模型的工作原理以及如何加載 Llama 2 模型和運行推理的最簡單示例。在這里還可以找到下載、設置模型的步驟以及運行文本補全和聊天模型的示例。

repo 地址:https://github.com/facebookresearch/llama

在模型卡片(中了解模型的更多信息,包括模型架構、預期用途、硬件和軟件要求、訓練數據、結果和許可證。

卡片地址:https://github.com/facebookresearch/llama/blob/main/MODEL_CARD.md

在 Meta 的 llama-recipes Github repo 中提供了如何快速開始微調以及如何為微調模型運行推理的示例。

repo 地址:https://github.com/facebookresearch/llama-recipes/

查閱 Meta 最近發布的編碼人工智能工具 Code Llama,這是一個建立在 Llama 2 基礎上的人工智能模型,針對生成和分析代碼的能力進行了微調。

Code Llama 地址:https://about.fb.com/news/2023/08/code-llama-ai-for-coding/

閱讀《負責任使用指南》,它提供了以負責任的方式構建由大語言模型 (LLM) 支持的產品的最佳實踐和注意事項,涵蓋了從開始到部署的各個開發階段。

指南地址:https://ai.meta.com/llama/responsible-use-guide/

責任編輯:張燕妮 來源: 機器之心
相關推薦

2024-02-22 17:19:26

谷歌模型PC

2023-08-21 10:36:23

2024-03-26 00:54:42

預測模型數據

2024-02-29 11:56:25

模型數據

2023-09-11 13:28:00

AI模型

2023-08-02 11:56:58

2024-01-29 11:56:04

模型訓練

2023-09-04 11:32:28

數據診斷模型

2023-07-27 14:11:32

模型開源

2023-10-04 07:59:41

大型語言模型人工智能

2024-01-22 08:50:00

AI訓練

2023-09-04 12:58:05

2024-05-27 09:01:42

Llama 3大型語言模型人工智能

2024-04-19 09:26:43

人工智能Llama 3 模型Meta

2024-02-04 13:34:52

2023-11-01 15:46:15

大語言模型戴爾

2023-09-11 15:57:16

人工智能模型GPT-4

2023-07-25 11:17:32

阿里云Llama2大模型
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: av在线免费网站 | 日韩精品一区二区三区在线观看 | av网站在线播放 | 国产精品日韩高清伦字幕搜索 | 日韩av一区二区在线观看 | 婷婷久久网 | 亚洲欧洲一区二区 | 超碰成人免费 | 成人精品国产 | 午夜久久久久久久久久一区二区 | 久草在线中文888 | 欧美在线a| 国产成人精品一区二区三区在线 | 古装人性做爰av网站 | 国产电影一区二区在线观看 | 日韩一区二区三区在线视频 | 成人av播放| 国产成人综合在线 | 亚洲最大av | 免费观看一级特黄欧美大片 | 国产精品海角社区在线观看 | 国产999精品久久久 午夜天堂精品久久久久 | 中文字幕国产视频 | 亚洲精品视频免费观看 | 亚洲精品资源 | 亚洲精品欧美一区二区三区 | 99视频免费 | 中文在线视频观看 | 特黄特色大片免费视频观看 | 中文字幕精品一区二区三区精品 | 欧美不卡在线 | 成人不卡 | 四虎影院在线播放 | 国产成人综合一区二区三区 | 欧美激情久久久 | 日韩av免费在线电影 | 国产亚洲精品一区二区三区 | 69av片| 国产欧美一级二级三级在线视频 | 日韩欧美综合在线视频 | 亚洲视频在线观看 |