成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

ChatGPT vs. GPT-3 vs. GPT-4只是聊天機器人家族的內(nèi)部斗爭

人工智能
在解釋SoMin公司的廣告文案和橫幅生成功能時,經(jīng)常有人會問,是否用ChatGPT取代了GPT-3,或者是否仍然在運行過時的模式。

在解釋SoMin公司的廣告文案和橫幅生成功能時,經(jīng)常有人會問,是否用ChatGPT取代了GPT-3,或者是否仍然在運行過時的模式。“我們沒有,也不打算這樣做。”SoMin公司發(fā)言人給出這樣的回答,盡管OpenAI公司推出的ChatGPT這款聊天機器人正在蓬勃發(fā)展。這往往會讓客戶大吃一驚,以下解釋一下他為什么要給出這樣的回答。

在人工智能模型中占有一席之地

GPT-2、GPT-3、ChatGPT以及最近推出的GPT-4都屬于同一類人工智能模型——Transformer。這意味著,與上一代機器學習模型不同,它們被訓(xùn)練來完成更統(tǒng)一的任務(wù),因此它們不需要為每個特定的任務(wù)重新訓(xùn)練來產(chǎn)生可行的結(jié)果。后者解釋了它們的巨大規(guī)模(在GPT-3的例子中有1750億個參數(shù)),而一個模型可能需要“記住整個互聯(lián)網(wǎng)”,才能足夠靈活地根據(jù)用戶輸入在不同的數(shù)據(jù)片段之間切換。然后,當用戶輸入查詢的問題,描述任務(wù)和幾個示例(就像你向圖書管理員詢問感興趣的書籍一樣)時,模型能夠生成結(jié)果。這種方法被稱為“小樣本學習”(Few-Shot Learning),最近在為現(xiàn)代Transformer模型提供輸入已成為一種趨勢。

但是,為了完成當前的任務(wù),是否總是需要掌握所有的互聯(lián)網(wǎng)知識呢?當然不是——在很多情況下,就像ChatGPT一樣,需要大量 (數(shù)以百萬計)特定于任務(wù)的數(shù)據(jù)樣本,這些樣本將允許模型啟動“從人類反饋中強化學習(RLHF)”過程。反過來,RLHF將衍生出人工智能和人類之間進行的協(xié)作訓(xùn)練過程,以進一步訓(xùn)練人工智能模型,以產(chǎn)生類似人類的對話。因此,ChatGPT不僅在聊天機器人場景中表現(xiàn)出色,而且還幫助人們編寫短篇內(nèi)容(例如詩歌或歌詞)或長篇內(nèi)容(例如論文);當人們需要快速獲得答案時,可以采用簡單的術(shù)語或深入的知識解釋復(fù)雜的話題;提供頭腦風暴、新的話題和想法,這在創(chuàng)作過程中是有幫助的,支持銷售部門進行個性化溝通,例如生成電子郵件進行回復(fù)。

雖然從技術(shù)上來說,大型Transformer模型可以嘗試完成這些任務(wù),但不太可能由ChatGPT甚至GPT-4來完成——這是因為ChatGPT和其他OpenAI的Transformer對世界發(fā)生的事件了解非常有限,因為它們是預(yù)訓(xùn)練的模型,因此由于模型再訓(xùn)練的計算需求非常大,因此它們的數(shù)據(jù)更新不夠頻繁。這可能是迄今為止OpenAI(以及其他任何公司)所生成的所有預(yù)訓(xùn)練模型中最大的缺點。一個更大的問題是針對ChatGPT的:與GPT-3不同,它是在一個非常集中的對話數(shù)據(jù)集上進行訓(xùn)練的,因此,只有在對話任務(wù)中ChatGPT才能超越它的前輩,而在完成其他人類生產(chǎn)力任務(wù)時,它就不那么先進。

成長中的大型語言模型家族

人們現(xiàn)在知道ChatGPT只是GPT-3的一個更小、更具體的版本,但這是否意味著在不久的將來會有更多這樣的模型出現(xiàn):用于營銷的MarGPT,用于數(shù)字廣告的AdGPT,用于回答醫(yī)療問題的MedGPT?

這是有可能的,其原因如下:當SoMin公司提交一份申請以獲得GPT-3 Beta的訪問權(quán)限時,盡管填寫了一份冗長的申請表,詳細解釋了將要構(gòu)建的當前軟件,但被要求同意提供關(guān)于每天如何使用模型以及所收到的結(jié)果的反饋。OpenAI公司這樣做是有原因的,主要是因為這是一個研究項目,他們需要對模型的最佳應(yīng)用進行商業(yè)洞察,他們通過眾籌來換取參與這場偉大的人工智能革命的機會。聊天機器人應(yīng)用程序似乎是最受歡迎的應(yīng)用程序之一,所以ChatGPT首先出現(xiàn)。ChatGPT不僅規(guī)模更小(200億個參數(shù)vs.1750億個參數(shù)),而且比GPT-3更快,而且在解決會話任務(wù)時比GPT-3更準確——對于低成本/高質(zhì)量的人工智能產(chǎn)品來說,這是一個完美的商業(yè)案例。

那么,對于生成式人工智能來說,規(guī)模越大越好嗎?其答案是,要視情況而定。當人們正在構(gòu)建一個能夠完成許多任務(wù)的通用學習模型時,其答案是肯定的,其規(guī)模越大越好,GPT-3比GPT-2和其他前輩的優(yōu)勢證明了這一點。但是,當人們想要很好地完成一項特定的任務(wù)時,就像ChatGPT中的聊天機器人一樣,那么與模型和數(shù)據(jù)大小相比,數(shù)據(jù)焦點和適當?shù)挠?xùn)練過程要重要得多。這就是為什么在SoMin公司沒有使用ChatGPT來生成文案和橫幅的原因,而是利用特定的數(shù)字廣告相關(guān)數(shù)據(jù)來指導(dǎo)GPT-3為尚未看到的新廣告制作更好的內(nèi)容。

那么,有人可能會問,生成式人工智能的未來將如何發(fā)展?多模態(tài)將是人們在即將到來的GPT-4中看到的不可避免的進步之一,正如OpenAI公司首席執(zhí)行官Sam Altman在他的演講中提到的那樣。與此同時,Altman還打破了該模型擁有100萬億個參數(shù)的傳言。因此,人們都知道,這種人工智能模型越大并不總是代表著越好。

責任編輯:華軒 來源: 企業(yè)網(wǎng)D1Net
相關(guān)推薦

2023-02-18 21:39:08

聊天機器人AI工具

2021-01-13 16:04:07

網(wǎng)絡(luò)On-Prem托管

2023-05-04 08:00:00

機器人GPT4模型機器學習

2024-05-21 12:23:17

2023-03-15 08:44:58

2024-10-18 11:12:44

2023-07-25 09:23:23

Llama 2GPT-4

2014-09-28 10:29:43

喬布斯施密特Android

2021-12-23 15:36:21

NASSANDAS

2023-05-22 19:49:30

命令Linux

2020-08-25 09:14:17

對象存儲文件存儲塊存儲

2024-09-12 22:45:47

2019-04-02 15:07:51

API NginxZuul

2025-02-18 16:00:00

代碼Python架構(gòu)

2023-03-01 16:15:16

2020-04-15 10:21:43

云計算AWSAzure

2023-08-23 08:54:59

OpenAIGPT-3.5

2023-05-04 06:28:51

GPT-4OpenAI

2023-08-15 10:33:06

微軟必應(yīng)人工智能

2023-08-15 13:24:04

GPT-4AGI模型
點贊
收藏

51CTO技術(shù)棧公眾號

主站蜘蛛池模板: 成人精品国产 | 欧美一区二区 | 久久精品—区二区三区 | 国产一区不卡在线观看 | 男人天堂视频在线观看 | 天天久久 | 在线观看特色大片免费网站 | 天天操网 | 国产视频福利一区 | 亚洲欧美一区二区三区1000 | 久久久久国产精品午夜一区 | 国内精品久久久久久 | 男人午夜视频 | 老司机狠狠爱 | 国产精品久久久久久久久久久久久久 | 国产日韩欧美在线 | 欧美黑人狂野猛交老妇 | 国内精品在线视频 | 精品久久久久久亚洲精品 | 国产精品美女久久久久久免费 | 天天干亚洲 | 天天操天天摸天天爽 | 91成人免费看 | 青青艹在线视频 | 韩国主播午夜大尺度福利 | 欧美欧美欧美 | 国产欧美精品在线观看 | 欧美色a v| 国产精品久久久久婷婷二区次 | 蜜月aⅴ国产精品 | 欧美一区二区久久 | 性大毛片视频 | 毛片a级| 日韩在线精品视频 | 久久精品91久久久久久再现 | 欧美日韩综合精品 | 国产精品日韩欧美一区二区三区 | 国产观看 | 一区二区三区 在线 | 第一区在线观看免费国语入口 | 欧美白人做受xxxx视频 |