成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

為了保護(hù)客戶隱私,使用Ruby在本地運(yùn)行開源AI模型

譯文 精選
人工智能
本文將向您介紹如何在本地下載開源的AI模型,讓它運(yùn)行起來,以及如何針對其運(yùn)行Ruby腳本。

譯者 | 陳峻

審校 | 重樓

最近,我們實(shí)施了一個(gè)定制化的人工智能(AI)項(xiàng)目。鑒于甲方持有著非常敏感的客戶信息,為了安全起見,我們不能將它們傳遞給OpenAI或其他專有模型。因此,我們在AWS虛擬機(jī)中下載并運(yùn)行了一個(gè)開源的AI模型,使之完全處于我們的控制之下。同時(shí),Rails應(yīng)用可以在安全的環(huán)境中,對AI進(jìn)行API調(diào)用。當(dāng)然,如果不必考慮安全問題,我們更傾向于直接與OpenAI合作。

下面,我將和大家分享如何在本地下載開源的AI模型,讓它運(yùn)行起來,以及如何針對其運(yùn)行Ruby腳本。

為什么要定制?

這個(gè)項(xiàng)目背后的原因很簡單:數(shù)據(jù)安全。在處理敏感的客戶信息時(shí),最安全的方法往往是在公司內(nèi)部進(jìn)行。為此,我們需要定制化的AI模型,來提供更高級別的安全控制和隱私保護(hù)。

開源模式

在過去的6個(gè)月里,市場上出現(xiàn)了諸如:Mistral、MixtralLama等大量開源的AI模型。它們雖然沒有GPT-4那么強(qiáng)大,但是其中不少模型的性能已經(jīng)超過了GPT-3.5,而且隨著時(shí)間的推移,它們會越來越強(qiáng)。當(dāng)然,該選用哪種模型,則完全取決于您的處理能力和需要實(shí)現(xiàn)的目標(biāo)。

由于我們將在本地運(yùn)行AI模型,因此選擇了大小約為4GBMistral。它在大多數(shù)指標(biāo)上都優(yōu)于GPT-3.5。盡管Mixtral的性能優(yōu)于Mistral,但它是一個(gè)龐大的模型,至少需要48GB內(nèi)存才能運(yùn)行。

參數(shù)

在談?wù)摯笳Z言模型(LLM)時(shí),我們往往會考慮提到它們的參數(shù)大小。在此,我們將在本地運(yùn)行的Mistral模型是一個(gè)70億參數(shù)的模型(當(dāng)然,Mixtral擁有700億個(gè)參數(shù),而GPT-3.5大約有1750億個(gè)參數(shù))。

大語言模型通常需要基于神經(jīng)網(wǎng)絡(luò)。而神經(jīng)網(wǎng)絡(luò)是神經(jīng)元的集合,每個(gè)神經(jīng)元都會連接到下一層的所有其他神經(jīng)元上。

如上圖所示,每個(gè)連接都有一個(gè)權(quán)重,通常用百分比表示。每個(gè)神經(jīng)元還有一個(gè)偏差(bias),當(dāng)數(shù)據(jù)通過某個(gè)節(jié)點(diǎn)時(shí),偏差會對數(shù)據(jù)進(jìn)行修正。

神經(jīng)網(wǎng)絡(luò)的目的是要“學(xué)到”一種先進(jìn)的算法、一種模式匹配的算法。通過在大量文本中接受訓(xùn)練,它將逐漸學(xué)會預(yù)測文本模式的能力,進(jìn)而對我們給出的提示做出有意義的回應(yīng)。簡單而言,參數(shù)就是模型中權(quán)重和偏差的數(shù)量。它可以讓我們了解神經(jīng)網(wǎng)絡(luò)中有多少個(gè)神經(jīng)元。例如,對于一個(gè)70億參數(shù)的模型來說,大約有100層,每層都有數(shù)千個(gè)神經(jīng)元。

在本地運(yùn)行模型

要在本地運(yùn)行開源模型,首先必須下載相關(guān)應(yīng)用。雖然市場上有多種選擇,但是我發(fā)現(xiàn)最簡單,也便于在英特爾Mac上運(yùn)行的是Ollama

雖然Ollama目前只能在MacLinux上運(yùn)行,不過它未來還能運(yùn)行在Windows上。當(dāng)然,您可以在Windows上使用WSL(Windows Subsystem for Linux)來運(yùn)行Linux shell。

Ollama不但允許您下載并運(yùn)行各種開源模型,而且會在本地端口上打開模型,讓您能夠通過Ruby代碼進(jìn)行API調(diào)用。這便方便了Ruby開發(fā)者編寫能夠與本地模型相集成的Ruby應(yīng)用。

獲取Ollama

由于Ollama主要基于命令行,因此在MacLinux系統(tǒng)上安裝Ollama非常簡單。您只需通過鏈接https://olama.ai/下載Ollama,花5分鐘左右時(shí)間安裝軟件包,再運(yùn)行模型即可。

安裝首個(gè)模型

在設(shè)置并運(yùn)行Ollama之后,您將在瀏覽器的任務(wù)欄中看到Ollama圖標(biāo)。這意味著它正在后臺運(yùn)行,并可運(yùn)行您的模型。為了下載模型,您可以打開終端并運(yùn)行如下命令:

ollama run mistral

由于Mistral約有4GB大小,因此您需要花一段時(shí)間完成下載。下載完成后,它將自動打開Ollama提示符,以便您與Mistral進(jìn)行交互和通信。

下一次您再通過Ollama運(yùn)行mistral時(shí),便可直接運(yùn)行相應(yīng)的模型了。

定制模型

類似我們在OpenAI中創(chuàng)建自定義的GPT,通過Ollama,您可以對基礎(chǔ)模型進(jìn)行定制。在此,我們可以簡單地創(chuàng)建一個(gè)自定義的模型。更多詳細(xì)案例,請參考Ollama的聯(lián)機(jī)文檔。

首先,您可以創(chuàng)建一個(gè)Modelfile(模型文件),并在其中添加如下文本:

FROM mistral

# Set the temperature set the randomness or creativity of the response
PARAMETER temperature 0.3

# Set the system message
SYSTEM ”””
You are an excerpt Ruby developer. 
You will be asked questions about the Ruby Programming
language. 
You will provide an explanation along with code examples.
”””

上面出現(xiàn)的系統(tǒng)消息是AI模型做出特定反應(yīng)的基礎(chǔ)。

接著,您可以在終端上運(yùn)行如下命令,以創(chuàng)建新的模型:

ollama create <model-name> -f './Modelfile

在我們的項(xiàng)目案例中,我將該模型命名為Ruby。

ollama create ruby -f './Modelfile'

同時(shí),您可以使用如下命令羅列顯示自己的現(xiàn)有模型:

ollama list

至此,您可以用如下命令運(yùn)行自定義的模型了:

Ollama run ruby

與Ruby集成

雖然Ollama尚沒有專用的gem,但是Ruby開發(fā)人員可以使用基本的HTTP請求方法與模型進(jìn)行交互。在后臺運(yùn)行的Ollama可以通過11434端口打開模型,因此您可以通過“http://localhost:11434”訪問它。此外,OllamaAPI的文檔也為聊天對話和創(chuàng)建嵌入等基本命令提供了不同的端點(diǎn)。

在本項(xiàng)目案例中,我們希望使用/api/chat端點(diǎn)向AI模型發(fā)送提示。下圖展示了一些與模型交互的基本Ruby代碼:

上述Ruby代碼段的功能包括:

  1. 通過“net/http”、“uri”和“json”三個(gè)庫,分別執(zhí)行HTTP請求、解析URI和處理JSON數(shù)據(jù)。
  2. 創(chuàng)建包含API端點(diǎn)地址(http://localhost:11434/api/chat)的URI對象。
  3. 使用以URI為參數(shù)的Net::HTTP::Post.new方法,創(chuàng)建新的HTTP POST請求。請求的內(nèi)容類型設(shè)置為“application/json”。
  4. 請求的正文被設(shè)置為一個(gè)代表了哈希值的JSON字符串。該哈希值包含了三個(gè)鍵:“模型”、“消息”和“流”。其中,模型鍵被設(shè)置為“ruby”,也就是我們的模型;消息鍵被設(shè)置為一個(gè)數(shù)組,其中包含了代表用戶消息的單個(gè)哈希值;而流鍵被設(shè)置為false。
  5. 系統(tǒng)引導(dǎo)模型該如何回應(yīng)信息。我們已經(jīng)在Modelfile中予以了設(shè)置。用戶信息是我們的標(biāo)準(zhǔn)提示。模型會以輔助信息作出回應(yīng)。消息哈希遵循與AI模型交叉的模式。它帶有一個(gè)角色和內(nèi)容。此處的角色可以是系統(tǒng)、用戶和輔助。
  6. HTTP請求使用Net::HTTP.start方法被發(fā)送。該方法會打開與指定主機(jī)名和端口的網(wǎng)絡(luò)連接,然后發(fā)送請求。連接的讀取超時(shí)時(shí)間被設(shè)置為120秒,畢竟我運(yùn)行的是2019款英特爾Mac,所以響應(yīng)速度可能有點(diǎn)慢。而在相應(yīng)的AWS服務(wù)器上運(yùn)行時(shí),這將不是問題。
  7. 服務(wù)器的響應(yīng)被存儲在“response”變量中。

案例小結(jié)

如上所述,運(yùn)行本地AI模型的真正價(jià)值體現(xiàn)在,協(xié)助持有敏感數(shù)據(jù)的公司,處理電子郵件或文檔等非結(jié)構(gòu)化的數(shù)據(jù),并提取有價(jià)值的結(jié)構(gòu)化信息。在我們參加的項(xiàng)目案例中,我們對客戶關(guān)系管理(CRM)系統(tǒng)中的所有客戶信息進(jìn)行了模型培訓(xùn)。據(jù)此,用戶可以詢問其任何有關(guān)客戶的問題,而無需翻閱數(shù)百份記錄。

譯者介紹

陳峻(Julian Chen),51CTO社區(qū)編輯,具有十多年的IT項(xiàng)目實(shí)施經(jīng)驗(yàn),善于對內(nèi)外部資源與風(fēng)險(xiǎn)實(shí)施管控,專注傳播網(wǎng)絡(luò)與信息安全知識與經(jīng)驗(yàn)。

原文標(biāo)題:How To Run Open-Source AI Models Locally With Ruby,作者:Kane Hooper

責(zé)任編輯:華軒 來源: 51CTO
相關(guān)推薦

2021-07-09 14:31:55

IBM開源框架混合云

2025-03-28 09:00:00

2022-09-08 16:30:44

物聯(lián)網(wǎng)保護(hù)隱私

2010-08-26 14:03:23

隱私保護(hù)

2022-05-19 13:21:51

數(shù)據(jù)保護(hù)隱私信息安全

2023-07-30 22:34:56

隱私保護(hù)檢索

2020-09-02 14:13:48

Facebook 開發(fā)開源

2024-02-04 17:03:30

2021-05-06 09:52:27

語言開源AI

2010-10-09 08:58:03

NginxRuby on Rai

2010-08-27 10:02:16

2022-08-18 23:20:03

數(shù)據(jù)泄露IP 地址隱私

2025-04-03 00:10:11

DockerAI模型

2018-04-03 11:13:24

2022-08-19 15:42:26

安全數(shù)據(jù)隱私網(wǎng)絡(luò)安全

2018-05-14 23:38:42

2023-12-05 18:50:24

騰訊安全HaS大模型

2022-09-02 15:10:21

醫(yī)療保健AI

2023-02-01 13:39:46

點(diǎn)贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 99精品久久 | 精品国产欧美 | 日本一区二区三区在线观看 | 中文字幕视频在线观看 | 亚洲成人精选 | 国产精品18久久久久久白浆动漫 | 日韩欧美手机在线 | 国产乱码精品一区二区三区忘忧草 | 精品久久九 | 日本不卡一区二区三区在线观看 | 天天玩夜夜操 | 成人黄页在线观看 | 中文字幕亚洲区一区二 | 国产精品久久久久久婷婷天堂 | 黄色网址在线播放 | 中文字幕 在线观看 | 在线伊人| 亚洲精品电影在线观看 | 亚洲一区二区三区四区视频 | 日本午夜免费福利视频 | www.久草.com | 亚洲精品中文字幕中文字幕 | 爱操影视 | 超碰在线播| 99色在线| 麻豆一区一区三区四区 | 亚洲国产精品人人爽夜夜爽 | 天天操综合网站 | 亚洲国产小视频 | 免费观看成人性生生活片 | 日韩和的一区二区 | 国产成人免费视频网站高清观看视频 | 国产伦精品一区二区三区照片91 | 国产精品美女久久久久aⅴ国产馆 | 久久亚洲一区二区三区四区 | 亚洲高清免费视频 | 欧美日韩一区二区在线播放 | 影音先锋中文字幕在线观看 | 在线观看国产 | 色综合一区二区三区 | 欧美精品v |