成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

HuggingGPT:解決處理AI任務的秘密武器

人工智能
HuggingGPT也有某些需要在此強調一下的局限性。例如,系統的效率是一個主要瓶頸,在前面提到的所有階段,HuggingGPT都需要與LLM進行多次交互。這些交互會導致用戶體驗的降低和延遲的增加。

簡介

人工通用智能(AGI)可以被認為是一個人工智能系統,它能夠像人類一樣理解、處理和響應智力任務。這是一項具有挑戰性的任務,需要深入了解人腦的工作方式,以便我們能夠復制它。然而,ChatGPT的出現引起了研究界對開發此類系統的巨大興趣。微軟已經發布了這樣一個由AI驅動的關鍵系統,名為HuggingGPT(Microsoft Jarvis)。

在深入了解HuggingGPT的新內容以及它工作原理的相關細節之前,讓我們首先了解ChatGPT的問題,以及為什么它在解決復雜的AI任務方面很困難。像ChatGPT這樣的大型語言模型擅長于解釋文本數據和處理一般任務。然而,它們經常在特定任務中掙扎,并可能產生荒謬的反應。你可能在解決復雜的數學問題時遇到過來自ChatGPT的虛假答復。另一方面,我們有專家級的AI模型,如Stable Diffusion和DALL-E等,它們對各自的學科領域有更深入的了解,但在更廣泛的任務上卻舉步維艱。除非我們在LLM和專業AI模型之間建立起聯系,否則我們無法完全利用LLM的潛力來解決具有挑戰性的AI任務。這就是HuggingGPT所做的,它結合了兩者的優勢,創造了更有效、更準確、更多的AI系統。

什么是HuggingGPT?

根據微軟最近發表的一篇論文,HuggingGPT利用LLM的強大功能,把它作為控制器,將其與機器學習社區(HuggingFace)中的各種AI模型連接起來,使它能夠使用外部工具,以提高工作效率。HuggingFace是一個為開發人員和研究人員提供大量工具和資源的網站。它還擁有各種各樣的專業和高精確度的模型。HuggingGPT將這些模型用于不同領域和模式的復雜AI任務,從而取得了令人印象深刻的結果。在涉及文本和圖像時,它具有與OPenAI GPT-4類似的多模式功能。但是,它也將你連接到互聯網上,你可以提供一個外部Web鏈接來詢問有關問題。

假設你想讓模型對寫在圖像上的文字進行音頻閱讀。HuggingGPT將使用最適合的模型串行地執行這項任務。首先,它將從圖像中導出文本,并將其結果用于音頻生成。可以在下面的圖片中查看響應詳細信息。簡直太神奇了!

圖片

對視頻和音頻模式的多模式合作進行定性分析

HuggingGPT是如何工作的?

圖片

HuggingGPT是一個協作系統,它使用LLM作為接口,向專家模型發送用戶請求。從用戶提示到模型直到收到響應的完整過程可以分解為以下不連續的步驟:

1.任務規劃

在這個階段,HuggingGPT利用ChatGPT來理解用戶的提示,然后將查詢分解為小的可操作任務。它還確定了這些任務的依賴關系,并定義了它們的執行順序。HuggingGPT有四個插槽用于任務解析,即任務類型、任務ID、任務依賴性和任務參數。HuggingGPT和用戶之間的聊天記錄被記錄下來并顯示在顯示資源歷史的屏幕上。

2.模型選擇

基于用戶環境和可用的模型,HuggingGPT使用一個上下文中的任務-模型分配機制,為一個特定的任務選擇最合適的模型。根據這一機制,模型的選擇被認為是一個單選題,它最初根據任務的類型篩選出模型。之后,根據下載次數對模型進行排名,因為它被認為是反映模型質量的可靠措施。Top-K模型是根據這個排名選擇的。這里的K只是一個反映模型數量的常數,例如,如果它被設置為3,那么它將選擇下載次數最多的3個模型。

3.任務執行

在這里,任務被分配給一個特定的模型,它對其進行推理并返回結果。為了提高這個過程的效率,HuggingGPT可以同時運行不同的模型,只要它們不需要相同的資源即可。例如,如果給出一個提示,生成貓和狗的圖片,那么不同的模型可以并行運行來執行這個任務。然而,有時模型可能需要相同的資源,這就是為什么HuggingGPT維護一個<resource>屬性以保持對資源的跟蹤。它確保資源被有效地使用。

4.生成響應

最后一步是生成對用戶的響應。首先,它整合了前幾個階段的所有信息和推理結果。這些信息以一種結構化的格式呈現。例如,如果提示是檢測圖像中獅子的數量,它將繪制具有檢測概率的適當的邊界框。然后,LLM(ChatGPT)使用這種格式,并以人類友好的語言呈現它。

設置HuggingGPT

HuggingGPT建立在Hugging Face最先進的GPT-3.5架構之上,它是一個深度神經網絡模型,可以生成自然語言文本。以下是如何在本地計算機上設置它的步驟:

系統要求

默認配置需要Ubuntu 16.04 LTS,至少24GB的VRAM,至少12GB(最小)、16GB(標準)或80GB(完整)的RAM,以及至少284GB的磁盤空間。此外,需要42GB的空間用于damo-vilab/text-to-video-ms-1.7b,126GB用于ControlNet,66GB用于stable-diffusion-v1-5,50GB用于其他資源。對于“lite”配置,只需要Ubuntu 16.04 LTS。

開始使用的步驟

首先,將server/configs/config.default.yaml文件中的OpenAI Key和Hugging Face Token替換為你的密鑰。或者,你可以將它們分別放在環境變量OPENAI_API_KEY和HUGGINGFACE_ACCESS_TOKEN中

運行以下命令:

對于Server:

  1. 設置Python環境并安裝所需的依賴項。
# 設置環境
cd server
conda create -n jarvis pythnotallow=3.8
conda activate jarvis
conda install pytorch torchvision torchaudio pytorch-cuda=11.7 -c pytorch -c nvidia
pip install -r requirements.txt
  1. 下載所需的模型。
# 下載模型。確保`git-lfs`已經安裝。
cd models
bash download.sh # required when `inference_mode` is `local` or `hybrid`.
  1. 運行服務器
# 運行服務器
cd ..
python models_server.py --config configs/config.default.yaml # required when `inference_mode` is `local` or `hybrid`
python awesome_chat.py --config configs/config.default.yaml --mode server # for text-davinci-003

現在你可以通過向Web API端點發送HTTP請求來訪問Jarvis的服務。發送請求到:

  • /hugginggpt端點,使用POST方法訪問完整的服務。
  • /tasks端點,使用POST方法訪問階段1的中間結果。
  • /results端點,使用POST方法訪問階段1-3的中間結果。

這些請求應該是JSON格式的,應該包括代表用戶輸入的信息列表。

對于Web:

  1. 在服務器模式下啟動應用程序awesome_chat.py后,在計算機上安裝node js和npm。
  2. 導航到web目錄并安裝以下依賴項:
cd web
npm install
npm run dev
  1. 將http://{LAN_IP_of_the_server}:{port}/設置為web/src/config/index.ts的HUGGINGGPT_BASE_URL,以防你在其他機器上運行Web客戶端。
  2. 如果要使用視頻生成功能,請使用H.264手動編譯ffmpeg。
# 可選:安裝 ffmpeg
# 這個命令需要在沒有錯誤的情況下執行。
LD_LIBRARY_PATH=/usr/local/lib /usr/local/bin/ffmpeg -i input.mp4 -vcodec libx264 output.mp4
  1. 雙擊設置圖標,切換回ChatGPT。

對于CLI:

使用CLI設置Jarvis是非常簡單的。只需運行下面提到的命令:

cd server
python awesome_chat.py --config configs/config.default.yaml --mode cli

對于Gradio:

Gradio演示也在Hugging Face Space上托管。你可以在輸入OPENAI_API_KEY和HUGGINGFACE_ACCESS_TOKEN后進行試驗。

要在本地運行它:

  1. 安裝所需的依賴項,從Hugging Face Space克隆項目存儲庫,然后導航到項目目錄
  2. 使用以下命令啟動模型服務器,然后啟動Gradio演示:
python models_server.py --config configs/config.gradio.yaml
python run_gradio_demo.py --config configs/config.gradio.yaml
  1. 在瀏覽器中通過http://localhost:7860訪問演示,并通過輸入各種輸入進行測試
  2. 作為選擇,你也可以通過運行以下命令以Docker鏡像的形式運行該演示:
docker run -it -p 7860:7860 --platform=linux/amd64 registry.hf.space/microsoft-hugginggpt:latest python app.py

注意:如果有任何問題,請參考官方Github Repo(https://github.com/microsoft/JARVIS)。

最后的思考

HuggingGPT也有某些需要在此強調一下的局限性。例如,系統的效率是一個主要瓶頸,在前面提到的所有階段,HuggingGPT都需要與LLM進行多次交互。這些交互會導致用戶體驗的降低和延遲的增加。同樣,最大的上下文長度也受到允許的令牌數量的限制。另一個問題是系統的可靠性,因為LLM可能會誤解提示并產生一個錯誤的任務序列,這反過來又會影響整個過程。盡管如此,它在解決復雜的AI任務方面具有很大的潛力,并且是AGI的一個很好的進步。一起期待這項研究會把AI的未來帶向哪個方向吧!

責任編輯:武曉燕 來源: Java學研大本營
相關推薦

2013-10-16 09:28:14

亞馬遜AWSSDN

2023-02-24 10:26:34

語音AI人工智能

2013-10-16 09:33:36

亞馬遜AWSSDN

2024-08-19 09:22:48

2011-08-11 17:05:26

2014-01-07 10:46:39

2024-07-11 08:34:48

2024-06-28 09:00:00

人工智能生成式人工智能

2022-02-11 10:47:17

CIOIT團隊企業

2019-11-27 10:40:34

數據工具CIO

2009-07-28 10:36:58

云計算Google秘密武器

2019-11-27 10:38:37

數據分析數據準備工具

2025-05-14 00:01:10

RxJS異步編程響應式

2011-06-02 10:24:11

iTravel蘋果

2025-05-27 10:00:00

Python數據類代碼

2025-06-12 08:00:00

Pythondataclass代碼

2015-03-30 16:58:05

秘密武器華為

2015-06-08 09:50:07

Android M谷歌

2023-09-25 15:29:44

Go并發Goroutines

2019-02-27 09:44:01

CIO秘密武器顧問
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 一级毛片成人免费看a | 日韩色在线 | 一二三四在线视频观看社区 | 一区二区免费看 | 精品国产99 | 中文字幕免费在线观看 | 玖草资源 | 国产一区二区av | 中文字幕高清免费日韩视频在线 | 国产激情第一页 | jvid精品资源在线观看 | 一区二区蜜桃 | 最近中文字幕在线视频1 | 久久91av| 国产美女永久免费无遮挡 | 中文字幕亚洲在线 | 日韩成人免费视频 | 精品久久电影 | 久久91av| 欧美日韩国产在线观看 | 日韩2020狼一二三 | 成人国产精品视频 | 成人a视频在线观看 | 亚洲精品久久久久中文字幕欢迎你 | 久久乐国产精品 | 综合久久亚洲 | 成人免费网站视频 | 黄色永久免费 | 天天玩天天操天天干 | 亚洲一二视频 | 久久专区 | 欧美在线视频一区二区 | 亚洲精品二区 | 麻豆久久久9性大片 | 免费九九视频 | 国产95在线 | 亚洲欧美一区二区在线观看 | 精品欧美一区二区三区精品久久 | 欧美激情久久久久久 | 涩涩视频在线观看 | 国产乱码精品一区二区三区中文 |