成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

為什么有了大模型還需要用Embedding模型?

發布于 2024-12-27 14:05
瀏覽
0收藏

不知道大家有沒有想過這個問題?

我這兩天對這個問題還深入思考了一下,思考的初衷是來源于現在這么多的開源大模型,而且挺多是多模態場景,而Embedding模型相對單模且英文語料居多,如果能復用大模型的output layer,是不是會加速手頭上的實驗進展。

為什么有了大模型還需要用Embedding模型?-AI.x社區

但思考后覺得效果應該是比不上原生的Embedding模型,有空再專門測試一下看看。

可能主要有以下幾點原因:

  1. 像LLM模型都是預測next token,那么針對next token的預測,模型肯定更加關注在這個token附近的信息,那么對應這個Embedding也更多是這附近的局部信息。而我們需要的Embedding表征,是輸入句子的全局表征,而不是“你好嗎,我吃飯了,你可以出來了嗎?”這句話里,對其中“你可以出來了嗎”做的局部信息特征映射。
  2. 目前比較好的Embedding模型都用到了對比學習,這種學習方式能夠更精確地學習的全局Eembedding特征,如果用LLM也可以在下游接一個自監督訓練器,效果也會很不錯,就是成本有點高。最近有一篇paper也可供參考:《Improving Text Embeddings with Large Language Models》

為什么有了大模型還需要用Embedding模型?-AI.x社區


對比學習目標是,學習一個這樣的特征提取器,在它提取的特征所構建的 embedding 空間中,同類樣本的 embedding 互相靠近,而不同類樣本的embedding相互遠離。通常,同類樣本對互稱為正樣本(positive sample),不同類樣本對互稱為負樣本(negative sample)。

本文轉載自 ??沐白AI筆記??,作者: 楊沐白


收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 日日操视频 | 五月激情六月婷婷 | 日韩一区二区三区在线 | 一区二区三区免费 | 成人免费小视频 | 日韩精品一区二 | 欧美日韩在线一区二区 | 久久最新网址 | 中文字幕视频在线 | 精品国产一区二区三区久久狼黑人 | 亚洲一区中文字幕 | 日韩三区在线观看 | 亚洲人成人一区二区在线观看 | 中文字幕一区二区三区精彩视频 | 一区二区视频在线 | 国产乱码精品一区二区三区五月婷 | 天天草狠狠干 | 亚洲一区 中文字幕 | 中文字幕av免费 | 国产免费麻豆视频 | 一二三区av | 亚洲 欧美 日韩在线 | 成人一区二区电影 | 免费网站在线 | 久久久av | 久久精彩视频 | 欧美日韩中文字幕在线播放 | 免费一级大片 | 国产精品日韩欧美一区二区三区 | 亚洲欧洲小视频 | 成人国产精品免费观看 | 国外成人在线视频网站 | 亚洲精品乱码久久久久久按摩观 | 精品欧美一区二区三区久久久 | 亚洲国产精品第一区二区 | 精品国产欧美一区二区 | 日韩国产中文字幕 | 亚洲精品视频在线观看视频 | 99精品国产一区二区三区 | 九九热这里 | www.久久久.com |