成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

智能對話新紀元:大模型推理服務

發布于 2024-11-7 14:15
瀏覽
0收藏

在人工智能的浪潮中,大型語言模型憑借其強大的對話理解和生成能力,引領了智能對話技術的潮流。企業和個人對于私有化智能服務的需求日益增長,將這樣的大模型部署為專屬服務顯得尤為重要。今天,讓我們一起探索如何將大模型私有化部署,構建你的智能助手。

1. 環境準備

首先確保你有一套滿足硬件要求的服務器或云環境,通常需要有一塊性能良好的GPU,足夠的內存和存儲空間來容納模型和運行日志。此外,選擇合適的操作系統(如Ubuntu Linux)并安裝必需的軟件依賴項(如Python、Cuda等)。

2. 獲取模型

你可以從官方倉庫或者其他可靠的來源下載預訓練好的模型權重文件。

以清華ChatGlm為例

模型下載地址:https://huggingface.co/THUDM/chatglm3-6b-32k/tree/main

智能對話新紀元:大模型推理服務-AI.x社區

將模型文件下載到本地

 3. 安裝必要的庫

使用pip或conda安裝必需的Python庫,包括但不限于transformers(用于加載和處理模型),torch(PyTorch的核心庫),以及任何其他你可能需要的數據處理或服務框架相關的庫。

4. 封裝API接口

為了使模型能夠響應外部請求,你需要開發一個RESTful API或者WebSocket服務,使得客戶端可以通過網絡發送請求并接收模型的回復。這通常涉及到編寫一些后端代碼,比如使用Flask或FastAPI框架。

以下是一個簡單的推理腳本 server.py ,只是簡單的非流式推理腳本。后續再更新流式推理以及日志的保存腳本。

from __future__ impport print_function
import json
import traceback
import flask
from flask import request , Flask,g,stream_with_context
from flask import Response
from transformers import AutoModel,AutoTokenizer
import torch
import os
import sys
import logging
from logging import handlers
import time
import flask_cors import CORS
import requests


# 下載的模型文件放在推理腳本的同級目錄的model文件下
tokenizer = AutoTokenizer.from_pretrained("./model/",trust_remote_code=True)
model = AutoModel.from_pretrained("./model",trust_remote_code=True).half().cuda()
model= model.eval()
path = os.path.dirname(os.path.abspath(__file__))


app = Flask(__name__)
CORS(app)


@app.route("/predict",methods=["POST"])
def predict():
  try:
      post_data = json.load(flask.loads.get_data())
      question = post_data.get("question")
      history = post_data.get("history")
      response, history = model.chat(tokenizer,question,history=history)
      res = get_return_json(0,"success",response)
      return res
  execpt Exception as e:
      success = -1
      errorMsg = str(e)
      res = get_return_json(success,errorMsg,'')
      return res
      
def get_return_json(code,return_msg,result):
    return_json = {'return_code':code, 'return_msg':return_msg,'answer': result}
    return return_json
if __name__ == "__main__":
    app.run(host=='0.0.0.0',port=8080,debug=False,threaded=False)

復制

5. 執行腳本

進入到server.py 所在的目錄,比如 cd /workspace/server

執行 python server.py 即可運行服務

本文轉載自 ??AI論文解讀??,作者: 墨瀾

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 精品免费国产一区二区三区四区介绍 | 国产在线精品一区二区三区 | 久久久久久国产精品 | 久久国产成人精品国产成人亚洲 | 麻豆精品一区二区三区在线观看 | 日本中出视频 | 人人草人人干 | 一区二区av | av网站在线播放 | 日韩欧美三级 | 在线婷婷 | 国产激情视频在线观看 | 欧美福利视频 | 久久久久久亚洲精品 | 国产91精品久久久久久久网曝门 | 日韩精品 电影一区 亚洲 | 久久久国产一区二区三区 | 天天干狠狠 | 黄色一级免费观看 | 欧美精品久久久 | 精品一区二区三区四区 | 久久精品小短片 | 国产一级特黄真人毛片 | 精品成人佐山爱一区二区 | 国产精品久久久久久久久久久久久 | 日韩资源 | 欧美久久影院 | 在线视频 中文字幕 | 久久精选| 精品欧美一区二区三区久久久 | 一级做受毛片免费大片 | 2019天天干天天操 | 国产av毛片 | 国产丝袜一区二区三区免费视频 | 久久精品国产久精国产 | 91一区二区 | 亚洲一区二区三区在线播放 | 国产精品美女久久久久久不卡 | 凹凸日日摸日日碰夜夜 | 97精品国产97久久久久久免费 | 国产xxxx搡xxxxx搡麻豆 |