成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

吳恩達ChatGPT課爆火:AI放棄了倒寫單詞,但理解了整個世界

人工智能
今年開始,越來越多大模型發布時,都會著重強調token數量,比如谷歌PaLM 2曝光細節中提到,它訓練用到了3.6萬億個token。

沒想到時至今日,ChatGPT竟還會犯低級錯誤?

吳恩達大神最新開課就指出來了:

ChatGPT不會反轉單詞!

比如讓它反轉下lollipop這個詞,輸出是pilollol,完全混亂。

圖片

哦豁,這確實有點大跌眼鏡啊。

以至于聽課網友在Reddit上發帖后,立馬引來大量圍觀,帖子熱度火速沖到6k。

圖片

而且這不是偶然bug,網友們發現ChatGPT確實無法完成這個任務,我們親測結果也同樣如此。

圖片

圖片

△實測ChatGPT(GPT-3.5)

甚至包括Bard、Bing、文心一言在內等一眾產品都不行。

圖片

△實測Bard

圖片

△實測文心一言

還有人緊跟著吐槽, ChatGPT在處理這些簡單的單詞任務就是很糟糕。

比如玩此前曾爆火的文字游戲Wordle簡直就是一場災難,從來沒有做對過。

圖片

誒?這到底是為啥?

關鍵在于token

之所以有這樣的現象,關鍵在于token。token是文本中最常見的字符序列,而大模型都是用token來處理文本。

它可以是整個單詞,也可以是單詞一個片段。大模型了解這些token之間的統計關系,并且擅長生成下一個token。

因此在處理單詞反轉這個小任務時,它可能只是將每個token翻轉過來,而不是字母。

圖片

這點放在中文語境下體現就更為明顯:一個詞是一個token,也可能是一個字是一個token。

圖片

針對開頭的例子,有人嘗試理解了下ChatGPT的推理過程。

圖片

為了更直觀的了解,OpenAI甚至還出了個GPT-3的Tokenizer。

圖片

比如像lollipop這個詞,GPT-3會將其理解成I、oll、ipop這三個部分。

根據經驗總結,也就誕生出這樣一些不成文法則。

  • 1個token≈4個英文字符≈四分之三個詞;
  • 100個token≈75個單詞;
  • 1-2句話≈30個token;
  • 一段話≈100個token,1500個單詞≈2048個token;

單詞如何劃分還取決于語言。此前有人統計過,中文要用的token數是英文數量的1.2到2.7倍。

圖片


token-to-char(token到單詞)比例越高,處理成本也就越高。因此處理中文tokenize要比英文更貴。

可以這樣理解,token是大模型認識理解人類現實世界的方式。它非常簡單,還能大大降低內存和時間復雜度。

但將單詞token化存在一個問題,就會使模型很難學習到有意義的輸入表示,最直觀的表示就是不能理解單詞的含義。

當時Transformers有做過相應優化,比如一個復雜、不常見的單詞分為一個有意義的token和一個獨立token。

就像annoyingly就被分成“annoying”和“ly”,前者保留了其語義,后者則是頻繁出現。

這也成就了如今ChatGPT及其他大模型產品的驚艷效果,能很好地理解人類的語言。

至于無法處理單詞反轉這樣一個小任務,自然也有解決之道。

最簡單直接的,就是你先自己把單詞給分開嘍~

圖片

或者也可以讓ChatGPT一步一步來,先tokenize每個字母。

圖片

又或者讓它寫一個反轉字母的程序,然后程序的結果對了。(狗頭)

圖片

不過也可以使用GPT-4,實測沒有這樣的問題。

圖片

△實測GPT-4

總之,token就是AI理解自然語言的基石。

而作為AI理解人類自然語言的橋梁,token的重要性也越來越明顯。

它已經成為AI模型性能優劣的關鍵決定因素,還是大模型的計費標準。

甚至有了token文學

正如前文所言,token能方便模型捕捉到更細粒度的語義信息,如詞義、詞序、語法結構等。其順序、位置在序列建模任務(如語言建模、機器翻譯、文本生成等)中至關重要。

模型只有在準確了解每個token在序列中的位置和上下文情況,才能更好正確預測內容,給出合理輸出。

因此,token的質量、數量對模型效果有直接影響。

今年開始,越來越多大模型發布時,都會著重強調token數量,比如谷歌PaLM 2曝光細節中提到,它訓練用到了3.6萬億個token。

以及很多行業內大佬也紛紛表示,token真的很關鍵!

今年從特斯拉跳槽到OpenAI的AI科學家安德烈·卡帕斯(Andrej Karpathy)就曾在演講中表示:

更多token能讓模型更好思考。

圖片

而且他強調,模型的性能并不只由參數規模來決定。

比如LLaMA的參數規模遠小于GPT-3(65B vs 175B),但由于它用更多token進行訓練(1.4T vs 300B),所以LLaMA更強大。

圖片

而憑借著對模型性能的直接影響,token還是AI模型的計費標準。

以OpenAI的定價標準為例,他們以1K個token為單位進行計費,不同模型、不同類型的token價格不同。

圖片

總之,踏進AI大模型領域的大門后,就會發現token是繞不開的知識點。

嗯,甚至衍生出了token文學……

圖片

不過值得一提的是,token在中文世界里到底該翻譯成啥,現在還沒有完全定下來。

直譯“令牌”總是有點怪怪的。

GPT-4覺得叫“詞元”或“標記”比較好,你覺得呢?

圖片

參考鏈接:
[1]https://www.reddit.com/r/ChatGPT/comments/13xxehx/chatgpt_is_unable_to_reverse_words/
[2]https://help.openai.com/en/articles/4936856-what-are-tokens-and-how-to-count-them
[3]https://openai.com/pricing

責任編輯:武曉燕 來源: 量子位
相關推薦

2023-09-07 13:22:00

AI訓練

2022-02-13 17:27:59

吳恩達AI小數據

2023-03-02 11:44:08

AI技術

2023-02-09 12:31:20

2019-10-21 09:51:20

AI 數據人工智能

2023-06-01 16:42:41

AI課程

2018-12-14 10:35:54

AI數據科技

2020-12-25 15:34:35

AI 數據人工智能

2024-01-22 12:31:18

模型訓練

2023-05-25 13:59:12

ChatGPT模型

2024-04-15 07:30:00

2024-01-08 08:52:33

2023-02-17 08:57:03

2022-02-25 14:22:46

攻擊安全網絡

2024-01-02 13:17:00

模型訓練

2019-12-27 10:06:03

AI 數據人工智能

2025-02-17 14:38:04

2024-09-30 13:30:00

2022-03-28 10:50:04

AI趨勢數據
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 狠狠干网站 | 九九九久久国产免费 | 奇米影视77 | 成人影院一区二区三区 | 亚洲淫视频 | 成人福利在线观看 | 国产精品精品久久久久久 | 国产一区二区三区日韩 | 激情综合五月 | 久久成人一区 | 97天天干 | 中文字幕1区2区 | 精品一区国产 | 九九免费视频 | 天天成人综合网 | 精品在线一区 | 国产日韩精品在线 | 亚洲一区二区三区桃乃木香奈 | 国产一级视频在线 | 国产欧美久久一区二区三区 | 人人干天天干 | 曰韩一二三区 | 亚洲一二三区在线观看 | 96国产精品久久久久aⅴ四区 | 国产日韩精品在线 | 女同久久另类99精品国产 | 中文字幕一区二区三区精彩视频 | 亚洲精品在线播放 | 亚洲精品字幕 | 久久久蜜桃一区二区人 | 高清国产一区二区 | 中文字幕亚洲欧美 | 国产成人精品在线 | 欧美日韩国产一区二区三区 | 欧美999| 精品日韩在线 | 日韩精品区| 一区二区三区免费 | 999久久久| 久久美国 | 久久精品视频在线观看 |