成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

使用LLama和ChatGPT為多聊天后端構建微服務

譯文
開發 架構
微服務架構便于創建邊界明確定義的靈活獨立服務。這種可擴展的方法使開發人員能夠在不影響整個應用程序的情況下單獨維護和完善服務。

譯者 | 布加迪

審校 | 重樓

微服務架構便于創建邊界明確定義靈活獨立服務。這種可擴展的方法使開發人員能夠在不影響整個應用程序的情況下單獨維護和完善服務。然而,若要充分發揮微服務架構的潛力特別是針對基于人工智能聊天應用程序,需要與最新的大語言模型(LLM,比如Meta LLama V2OpenAIChatGPT以及基于各種應用程序用例發布其他經過微調的LLM進行強大的集成,從而為多樣化的解決方案提供多模型方法。

LLM是大規模模型,可以基于不同數據訓練生成類似人類的文本。通過從互聯網上數十億單詞中學習,LLM了解上下文并生成不同領域調整內容。然而,由于需要獨特的接口、訪問端點和每個模型的特定載荷,將各種LLM集成到單個應用程序中常常帶來挑戰。因此,擁有可以處理各種模型的單一集成服務就能改進架構設計,加大獨立服務的規模。

本教程介紹使用Node.jsExpress在微服務架構中針對LLama V2ChatGPTIntelliNode集成

聊天機器人集成選項

以下是IntelliNode提供的幾個聊天集成選項

1. LLama V2您可以通過ReplicateAPI集成LLama V2模型,以實現簡單的流程,也可以通AWS SageMaker主機集成LLama V2模型,以實現額外的控制。

LLama V2是一功能強大的開源LLM,它已經過預訓練,并使用多700億個參數進行了微調。它擅長處理眾多領域的復雜推理任務,包括編程和創意寫作等專業領域。它的訓練方法包括自我監督數據,并通過人類反饋中強化學習RLHF與人類偏好保持對齊。LLama V2超越了現有的開源模型,在用性和安全性方面可與ChatGPTBARD等閉源模型相媲美。

2. ChatGPT通過簡單地提供OpenAI API密鑰,IntelliNode模塊允許在簡單的聊天界面中與模型集成。您可以通過GPT 3.5GPT 4模型訪問ChatGPT。這些模型已使用了大量數據進行訓練,并經過微調,以提供與上下文高度相關的、準確的響應。

逐步集成

不妨從初始化一個新的Node.js項目開始。打開終端,瀏覽到項目所在目錄,然后運行以下命令

npm init -y

個命令將為您的應用程序創建一個新的“package.json”文件。

接下來,安裝Express.js,它將用于處理HTTP請求和響應以及用于LLM模型連接的intellinode

npm install express
npm install intellinode

安裝完成后,在項目的根目錄下創建一個名為app.js的新文件然后,在app.js中添加express初始化代碼。

使用Replicate的API集成LLama V2

通過API密鑰Replicate提供了與LLama V2快速集成路徑,IntelliNode提供了聊天機器人接口,將您的業務邏輯與Replicate后端實現分離,允許您在不同的聊天模型之間切換。

不妨與托管在Replica后端的LLama集成開始

從replicate.com獲取試用密鑰以激活集成。

使用AWS SageMaker集成LLama V2

現在介紹通過AWS SageMaker集成LLama V2,提供隱私和額外的控制層。

集成需要從您的AWS帳戶生成API端點,首先我們將在微服務應用程序中設置集成代碼

步驟是在您的帳戶中創建一個LLama端點,一旦您設置了API網關,復制用于運行/LLama /aws”服務的URL。

在您的AWS帳戶中設置LLama V2端點

1.SageMaker服務從您的AWS帳戶中選擇SageMaker服務,然后點擊域。

2.創建SageMaker域先在您的AWS SageMaker上創建一個新域。這一步為您的SageMaker操作建立空間。

3.部署LLama模型利用SageMaker JumpStart來部署計劃集成的LLama模型。建議從2B模型開始,因為運行70B模型的每月成本較高。

4.復制端點名稱一旦您部署了模型,確保注意端點名稱,這對后面的步驟至關重要。

5.創建Lambda函數AWS Lambda允許運行后端代碼而無需管理服務器。創建一個Node.js lambda函數,用于集成部署的模型。

6.設置環境變量Lambda中創建一個名為LLama_endpoint的環境變量,附有SageMaker端點的值。

7.Intellinode Lambda導入您需要導入準備好的Lambda zip文件,該文件建立到SageMaker LLama部署的連接。這個導出是一個zip文件,可以在lambda_LLama_sagemaker目錄中找到。

8.API網關配置點擊Lambda函數頁面上的添加觸發器選項,從可用觸發器列表中選擇API網關

9.Lambda函數設置更新Lambda角色以授予訪問SageMaker端點所需的權限。此外,應該延長函數的超時時間以適應處理時間。可以在Lambda函數的Configuration選項卡中進行這些調整。

點擊角色名稱更新權限,并提供訪問SageMaker的權限

ChatGPT集成

最后,我們將闡述集成Openai ChatGPT、作為微服務架構中另一個選項的步驟

從platform.openai.com獲取試用密鑰。

進行實驗

先在終端中導出API密鑰,如下所示


然后運行node應用程序:

node app.js

在瀏覽器中輸入以下url測試chatGPT服務

http://localhost:3000/chatgpt?message=hello

我們構建了一個微服務,基于LLama V2和OpenAI的ChatGPT等LLM具有的功能。這種集成為充分利用基于高級AI的無數業務場景打開了大門。

通過將機器學習需求轉換解耦的微服務,您的應用程序可以獲得靈活性和可擴展性的好處。不用配置您的操作,以適應整體式模型的約束,語言模型功能現在可加以單獨管理和開發有望提高效率更容易進行故障排查和升級管理。

原文標題:Building Microservice for Multi-Chat Backends Using LLama and ChatGPT,作者:Ahmad Albarqawi

責任編輯:華軒 來源: 51CTO
相關推薦

2024-12-16 07:00:00

2023-10-31 16:37:55

大型語言模型人工智能

2024-12-17 08:05:34

大型語言模型MetaAILLM

2022-10-10 08:00:00

微服務Spring Boo容器

2022-09-05 08:00:00

Java微服務AuraDB

2018-12-03 08:00:00

微服務gRPC

2020-02-17 16:28:49

開發技能代碼

2023-06-01 15:14:55

架構Python微服務

2022-06-07 08:19:30

gRPCBallerina微服務

2023-11-06 08:26:11

Spring微服務架構

2021-12-29 08:30:48

微服務架構開發

2018-09-12 09:00:00

數據庫Redis微服務

2022-08-22 07:26:32

Node.js微服務架構

2024-11-25 08:00:00

2018-04-23 14:31:02

微服務GraphQLBFF

2021-01-07 08:43:11

微服務pipelineGitLabGroup

2022-09-12 15:58:50

node.js微服務Web

2025-05-06 08:23:56

Llama 4AutoGenAI智能體

2018-07-09 09:27:10

Spring Clou微服務架構

2020-11-03 09:00:00

API微服務JavaScript框
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: av中文在线 | 麻豆av网| 久久精品黄色 | 久久精品色欧美aⅴ一区二区 | 欧美一级黄色免费看 | 亚洲午夜av | 伊人免费网 | 毛片网站免费观看 | 成人免费视频播放 | 91精品国产自产精品男人的天堂 | av黄色免费在线观看 | 日韩精品不卡 | 欧美视频 | 亚洲 中文 欧美 日韩 在线观看 | 亚洲精品乱码久久久久久黑人 | 在线观看欧美日韩视频 | 91大神xh98xh系列全部 | 国产精品久久久久久久三级 | 亚洲最大的黄色网址 | 97国产在线观看 | 国产成人久久精品一区二区三区 | 狠狠干网| 激情久久久久 | 九九免费 | 亚洲综合在线一区 | 欧美成年网站 | 日本黄视频在线观看 | 福利网址| 亚洲一区欧美 | 久久精品一二三影院 | 日韩α片| 69xxx免费| 久久亚洲欧美日韩精品专区 | 亚州av| 久久综合av | 国产7777 | 国产免费视频在线 | 成年人在线观看视频 | 中文天堂在线一区 | 国产无人区一区二区三区 | 成人精品影院 |