成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

Docker 重磅更新!本地運行 AI 模型從未如此簡單

云計算 云原生
提起來 Docker Model Runner ,那必須要與 Ollama 的對比,這兩個工具都致力于簡化本地 AI 模型的運行管理,但在技術實現和適用場景上存在顯著差異。Docker Model Runner 深度集成于 Docker 生態,而 Ollama 則是獨立的模型運行工具。

Docker 在其最新的 4.40 版本中引入了 Docker Model Runner 功能,使在本地環境中運行 AI 模型變得簡單和便捷。

當前平臺支持情況:目前,Docker Model Runner 僅在搭載 Apple Silicon 芯片(M 系列)的 Mac 設備上可用。Windows 平臺的支持已在 Docker 的開發路線圖上,將在未來版本中推出。正如官方所述:"Soon, this will also be available on Windows."

這項功能的推出標志著 Docker 向 AI 開發領域邁出了重要一步,為開發者提供了一種無需配置復雜環境就能輕松管理和運行大型語言模型的方式,同時避免了對外部云服務的依賴。

17435122171743512217

可用命令整理

查看 Model Runner 狀態

檢查 Docker Model Runner 是否處于活動狀態:

docker model status

查看所有命令

顯示幫助信息和可用子命令列表:

docker model help

輸出:

Usage:  docker model COMMAND

Commands:
  list        列出本地可用的模型
  pull        從 Docker Hub 下載模型
  rm          刪除已下載的模型
  run         以交互方式或使用提示運行模型
  status      檢查模型運行器是否正在運行
  version     顯示當前版本

拉取模型

17435120601743512060

從 Docker Hub 拉取模型到本地環境:

docker model pull <model>

示例:

docker model pull ai/deepseek-r1-distill-llama

輸出:

Downloaded: 257.71 MB
Model ai/deepseek-r1-distill-llama pulled successfully

列出可用模型

列出當前拉取到本地環境的所有模型:

docker model list

您將看到類似以下內容:

MODEL       PARAMETERS  QUANTIZATION    ARCHITECTURE  MODEL ID      CREATED     SIZE
ai/deepseek-r1-distill-llama  361.82 M    IQ2_XXS/Q4_K_M  llama         354bf30d0aa3  1 days ago  256.35 MiB

運行模型

運行模型并使用提交的提示或聊天模式與其交互。

一次性提示

docker model run ai/deepseek-r1-distill-llama "Hi"

輸出:

Hello! How can I assist you today?

交互式聊天

docker model run ai/deepseek-r1-distill-llama

輸出:

Interactive chat mode started. Type '/bye' to exit.
> Hi
Hi there! It's SmolLM, AI assistant. How can I help you today?
> /bye
Chat session ended.

刪除模型

從系統中移除已下載的模型:

docker model rm <model>

輸出:

Model <model> removed successfully

使用 Rest 端點

從 Docker Desktop GUI 或通過 Docker Desktop CLI 啟用主機端 TCP 支持。

使用 docker desktop enable model-runner --tcp <port>。

之后,可以使用 localhost 和所選或默認端口與其交互:

curl http://localhost:12434/engines/llama.cpp/v1/chat/completions \
    -H "Content-Type: application/json" \
    -d '{
        "model": "ai/deepseek-r1-distill-llama",
        "messages": [
            {
                "role": "system",
                "content": "You are a helpful assistant."
            },
            {
                "role": "user",
                "content": "Please write a summary about Docker."
            }
        ]
    }'

LangChain4j 調用 Docker Model

LangChain4j[1] 是一個 Java 框架,用于構建基于大型語言模型 (LLM) 的應用程序。它為 Java 開發人員提供了與各種 LLM 交互的簡單方式,類似于 Python 世界中流行的 LangChain 庫。

設置步驟

1. 確保 Docker Model Runner 已啟用

在 Docker Desktop 中確保 Model Runner 功能已啟用(見前文)。

2. 添加 LangChain4j 依賴

在您的 Java 項目的pom.xml文件中添加以下依賴:

<dependencies>
    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j</artifactId>
        <version>1.0.0-beta2</version>
    </dependency>
    <dependency>
        <groupId>dev.langchain4j</groupId>
        <artifactId>langchain4j-open-ai</artifactId>
        <version>1.0.0-beta2</version>
    </dependency>
</dependencies>

3. 拉取并運行所需模型

使用前文介紹的命令拉取模型:

docker model pull ai/deepseek-r1-distill-llama

4. 配置 LangChain4j 連接到本地模型

創建一個配置類來連接到 Docker Model Runner:

import dev.langchain4j.model.chat.ChatLanguageModel;
import dev.langchain4j.model.openai.OpenAiChatModel;

public class ModelConfig {

    public ChatLanguageModel chatLanguageModel() {
        return OpenAiChatModel.builder()
                .baseUrl("http://localhost:12434/engines/llama.cpp/v1")
                .modelName("ai/deepseek-r1-distill-llama")
                .temperature(0.7)
                .build();
    }
}

示例應用

下面是一個使用 LangChain4j 與 Docker Model Runner 的簡單示例:

public classDockerModelExample {

    interfaceAssistant {
        String chat(String message);
    }

    publicstaticvoidmain(String[] args) {
        // 創建模型配置
        ModelConfigconfig=newModelConfig();
        ChatLanguageModelmodel= config.chatLanguageModel();
        
        // 創建 AI 服務
        Assistantassistant= AiServices.builder(Assistant.class)
                .chatLanguageModel(model)
                .build();
        
        // 進行對話
        Stringresponse= assistant.chat("用 Java 編寫一個簡單的 Hello World 程序");
        System.out.println(response);
    }
}

總結

提起來 Docker Model Runner ,那必須要與 Ollama 的對比,這兩個工具都致力于簡化本地 AI 模型的運行管理,但在技術實現和適用場景上存在顯著差異。Docker Model Runner 深度集成于 Docker 生態,而 Ollama 則是獨立的模型運行工具。

特性

Docker Model Runner

Ollama

開發狀態

Beta,2025 年 4 月 1 日仍在測試

成熟開源工具,已廣泛使用

操作系統支持

主要支持 macOS(Apple Silicon),Windows NVIDIA 即將支持

macOS、Linux、Windows,跨平臺支持更廣

模型來源

從 Docker Hub 拉取,緩存本地

支持官方庫和自定義導入(如 GGUF),更靈活

定制能力

暫未公布構建模式

通過 Modelfile 支持深度定制,功能更強

API 集成

OpenAI 兼容 API,適合 Docker 生態

REST API 和 Python 庫,集成更廣泛

易用性

適合 Docker 用戶,CLI 集成緊密

獨立工具,適合非 Docker 用戶,界面更簡單

責任編輯:武曉燕 來源: JAVA架構日記
相關推薦

2022-08-12 12:19:13

Cluster檢索集群

2021-02-06 17:49:49

人工智能智能醫療智慧安防

2021-10-18 13:31:28

Web應用交互式

2017-04-21 14:57:57

AndroidSuperTextViTextView

2020-03-17 07:41:50

ApacheKafka系統

2020-03-03 15:40:51

開發技能代碼

2022-06-13 06:33:04

瀏覽器瀏覽器插件

2013-06-14 10:36:00

2019-05-23 10:55:22

Istio灰度發布ServiceMesh

2025-03-27 00:04:33

AIChatGPT生成模型

2020-06-17 10:42:54

shellshell腳本Linux

2013-10-25 13:35:02

云計算

2009-08-26 20:12:41

BMCBSMITIL

2013-11-28 13:47:37

Android4.4ART模式

2025-01-24 00:44:15

2024-02-27 18:06:35

2024-04-18 15:51:57

2020-02-20 16:07:45

IT需求

2024-03-18 08:00:00

人工智能安全

2019-11-06 13:57:05

AI 數據人工智能
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 欧美精品一区二区三区四区五区 | 91久久国产综合久久 | 欧美一区二区三区 | 国产精品色 | 午夜精品久久久久久久星辰影院 | 免费黄色av网站 | 久久一二区 | 在线免费视频一区 | 一区在线视频 | 欧美中文字幕一区二区三区亚洲 | 午夜精品福利视频 | 国产精品国产三级国产aⅴ浪潮 | 久久伊人在 | 国产精品一区在线 | 国产欧美精品一区二区色综合朱莉 | 日韩精品免费在线观看 | 黄a在线观看 | 国产精品欧美大片 | 亚洲国产欧美国产综合一区 | 久久久91精品国产一区二区精品 | 亚洲一区二区三区免费在线观看 | 免费在线成人 | 91成人| 一级黄片一级毛片 | 久久久激情 | 欧美三区在线观看 | 久久成人精品视频 | 四虎影音 | 一本岛道一二三不卡区 | 亚洲精品日韩综合观看成人91 | 日韩免费看片 | 久久久久91 | 免费一级淫片aaa片毛片a级 | 91精品国产91久久久久久 | 九九热国产精品视频 | 91超碰在线观看 | 久久福利电影 | 久久久久国产一区二区三区 | 久久国产成人午夜av影院武则天 | 久久久久久久一区二区 | 日日夜精品视频 |