成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何借助Cortex運(yùn)行本地LLM

譯文 精選
人工智能
Cortex是一個動態(tài)的本地AI API平臺,旨在輕松高效地運(yùn)行和定制大語言模型(LLM)。它擁有一個簡單直觀的靈感來自O(shè)llama的命令行界面(CLI),完全用C++構(gòu)建而成。


譯者 | 布加迪

審校 | 重樓

AI行業(yè)正在經(jīng)歷一場轉(zhuǎn)變,轉(zhuǎn)向更小巧更高效的大語言模型(LLM),從而使用戶能夠在本地機(jī)器上運(yùn)行模型,無需功能強(qiáng)大的服務(wù)器。本教程將指導(dǎo)你借助Cortex運(yùn)行本地LLM,著重介紹其獨(dú)特的功能和易用性,使任何擁有標(biāo)準(zhǔn)硬件的人都可以享用AI。

注意:Cortex目前正在積極開發(fā)中,這可能會導(dǎo)致bug或某些功能無法正常運(yùn)行。你可以通過GitHubDiscord報告任何問題。

Cortex簡介

Cortex是一個動態(tài)的本地AI API平臺,旨在輕松高效地運(yùn)行和定制大語言模型(LLM)。它擁有一個簡單直觀的靈感來自O(shè)llama的命令行界面(CLI),完全用C++構(gòu)建而成。你可以下載適用于Windows、macOS和Linux的安裝軟件包。

用戶可以從Hugging Face中選擇模型,也可以使用Cortex的內(nèi)置模型,這些模型以通用文件格式存儲,以增強(qiáng)兼容性。使用Cortex最棒的地方在于,它支持可切換的引擎,從llama.cpp開始,可計劃在將來添加ONNX Runtime和TensorRT-LLM。此外,你還可以獲得帶有儀表板的實(shí)用服務(wù)器,用于查看API命令并對其進(jìn)行測試。

開始上手Cortex

登錄官方網(wǎng)站https://cortex.so/下載并安裝Cortex。

之后,打開終端或PowerShell,輸入如下命令以下載Llama 3.2 3B指令模型。

$ cortex pull llama3.2

它將提示你選擇模型的各種量化版本;只需選擇默認(rèn)選項llama3.2:3b-ggulf-q4-km。模型將被下載,下載時間取決于你的網(wǎng)速。

Available to download:
    1. llama3.2:3b-gguf-q2-k
    2. llama3.2:3b-gguf-q3-kl
    3. llama3.2:3b-gguf-q3-km
    4. llama3.2:3b-gguf-q3-ks
    5. llama3.2:3b-gguf-q4-km (default)
    6. llama3.2:3b-gguf-q4-ks
    7. llama3.2:3b-gguf-q5-km
    8. llama3.2:3b-gguf-q5-ks
    9. llama3.2:3b-gguf-q6-k
    10. llama3.2:3b-gguf-q8-0

Select a model (1-10): 5
Selected: llama3.2:3b-gguf-q4-km
Validating download items, please wait..
Start downloading: model.gguf
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1104  100  1104    0     0   3255      0 --:--:-- --:--:-- --:--:--  3266
100 1925M  100 1925M    0     0  2397k      0  0:13:42  0:13:42 --:--:-- 2430k
Start downloading: model.yml
  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current
                                 Dload  Upload   Total   Spent    Left  Speed
100  1522  100  1522    0     0   4042      0 --:--:-- --:--:-- --:--:--  4058
Model llama3.2:3b-gguf-q4-km downloaded successfully!

你還可以從Hugging Face Hub中提取模型,只要在‘pull’命令后輸入模型的存儲庫ID,它就會自動下載。

$ cortex pull kingabzpro/Gemma-2-9b-it-chat-doctor

下載完成后,輸入帶有模型名稱的‘run’命令來啟動服務(wù)器。

$ cortex run llama3.2

一旦一切設(shè)置完畢,你就可以開始從Llama 3.2提問了。

正如我們所見,模型準(zhǔn)確地回答了關(guān)于世界上最高建筑的問題。

Starting server ...
Host: 127.0.0.1 Port: 39281
Server started
API Documentation available at: http://127.0.0.1:39281
Inorder to exit, type `exit()`
> What is the tallest building in the world?
The Burj Khalifa, located in Dubai, United Arab Emirates, is currently the tallest building in the world, standing at a height of 828 meters (2,722 feet) with 163 floors.

我們甚至問了一些后續(xù)問題,它也能理解上下文。簡單又快速。

> tell me more about it.
The Burj Khalifa!

Here are some fascinating facts about the Burj Khalifa:

1. **Design and Construction**: The Burj Khalifa was designed by the American architectural firm Skidmore, Owings & Merrill, with Adrian Smith and John G. Buffman as the lead architects.
2. **Height and Floors**: The Burj Khalifa stands at a height of 828 meters (2,722 feet) with 163 ..........

當(dāng)你運(yùn)行服務(wù)器時,還可以選擇通過Python API、CURL命令以及其他語言的API訪問模型。

在瀏覽器中輸入URL http://127.0.0.1:39281,開始探究你可以用服務(wù)器做些什么。

如果你想查看有多少模型在后臺運(yùn)行以及它們消耗了多少內(nèi)存,可以輸入‘ps’命令來查看。

$ cortex ps 
 +------------------------+-----------+-----------+---------+------------------------+
| Model                  | Engine    | RAM       | VRAM    | Up time                |
+------------------------+-----------+-----------+---------+------------------------+
| llama3.2:3b-gguf-q4-km | llama-cpp | 308.23 MB | 1.87 GB | 22 minutes, 31 seconds |
+------------------------+-----------+-----------+---------+--------------------

結(jié)論

Cortex是一個大有潛力的新平臺,有望改變我們在本地和云端使用LLM的方式。其強(qiáng)大的服務(wù)器功能提供了廣泛的功能特性,使訪問和管理模型既直觀又高效。與Ollama相似,Cortex允許用戶直接在終端上測試模型,從而簡化了過程,增強(qiáng)了用戶體驗(yàn)。

我們在本教程中了解了Cortex、如何安裝以及如何下載并在終端本地使用Llama 3.2,強(qiáng)烈建議你在本地嘗試一下。

原文標(biāo)題:Run Local LLMs with Cortex,作者:Abid Ali Awan

責(zé)任編輯:姜華 來源: 51CTO內(nèi)容精選
相關(guān)推薦

2024-03-12 10:05:47

大型語言模型

2024-06-04 12:59:41

2024-12-12 08:26:50

AI模型LLM大語言模型

2025-05-09 01:00:00

大語言模型LLMGPU內(nèi)存

2023-12-19 16:12:40

GPT-4AI聊天機(jī)器人人工智能

2024-03-26 08:00:00

LLMVLMRaspberry

2016-02-16 09:36:37

CrossOverLinuxWindows

2024-05-28 11:32:01

2025-06-18 08:12:14

2018-07-30 09:42:09

AndroidWineWindows App

2024-11-07 08:03:10

2025-06-03 08:40:00

LM StudioLLM人工智能

2025-05-20 09:24:15

2021-04-20 09:26:40

Cortex M架構(gòu)Cortex A架構(gòu)STM32系列

2013-12-23 10:36:57

Nagios監(jiān)控監(jiān)測

2014-02-17 10:48:57

NagiosBGP會話

2018-12-14 09:00:00

MoleculeAnsible角色軟件測試

2016-12-07 09:26:27

GlusterFS存儲池

2025-03-10 05:00:00

2020-11-25 20:44:21

安卓Windows 10微軟
點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 亚洲福利一区 | 777毛片| 特黄一级| 男女视频在线观看 | 久久久久久久久国产成人免费 | 国产免费一区二区三区免费视频 | 在线播放中文字幕 | 国产精品精品视频 | 成人做爰www免费看视频网站 | 午夜电影在线播放 | 久久精品视频播放 | 99久久婷婷国产亚洲终合精品 | h片在线观看免费 | 色av一区二区 | 亚洲精品www | 国产精品免费一区二区 | 成人毛片在线视频 | 国产精品国产三级国产aⅴ中文 | 国产成人在线视频播放 | 一二区成人影院电影网 | 国产欧美在线 | 日韩视频―中文字幕 | 国产精品成人一区二区三区 | 综合激情av| 九九热在线免费观看 | 国产激情片在线观看 | 欧美日韩亚洲一区 | 一区二区三区四区免费在线观看 | 亚州综合一区 | 成人免费观看男女羞羞视频 | 午夜爱爱毛片xxxx视频免费看 | 日韩在线免费视频 | 免费观看日韩av | 黄色免费av | 在线看日韩 | 欧美成人综合 | 日本黄色高清视频 | 亚洲va欧美va人人爽午夜 | 韩国av一区二区 | 亚洲综合视频 | 九九久久这里只有精品 |