成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

針對特定領域較小的語言模型是否與較大的模型同樣有效?

人工智能
經(jīng)過2023年的發(fā)展,大語言模型展示出了非常大的潛力,訓練越來越大的模型成為有效性評估的一個關鍵指標,論文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微調(diào)大語言模型(llm)及其在金融情緒分析中的零樣本和少樣本的能

經(jīng)過2023年的發(fā)展,大語言模型展示出了非常大的潛力,訓練越來越大的模型成為有效性評估的一個關鍵指標,論文《A Comparative Analysis of Fine-Tuned LLMs and Few-Shot Learning of LLMs for Financial Sentiment Analysis》中,作者全面分析了微調(diào)大語言模型(llm)及其在金融情緒分析中的零樣本和少樣本的能力。

作者通過使用兩種方法來探索金融情緒分析背景下的潛力和適用性:

  • 在特定的領域(金融領域)的數(shù)據(jù)集上,使用小語言模型進行微調(diào),作者測試了250M到3B參數(shù)各種模型
  • 以gpt-3.5 turbo為重點的情境學習

作者還將結果與SOTA(最先進的)模型進行比較以評估其性能,我們看看小模型是否還同樣有效。

論文證明了以下觀點:

  • 微調(diào)較小的llm可以達到與SOTA微調(diào)llm相當?shù)男阅堋?/span>
  • 零樣本和少樣本學習的的性能與經(jīng)過微調(diào)的小型llm相當。
  • 增加上下文學習中的樣本數(shù)量并不一定會提高情感分析任務的性能。
  • 微調(diào)較小的llm會降低成本和提高計算效率。

作者專注于使用QLoRa (Quantized low - rank - adaptive)機制對FLAN-T5模型進行微調(diào)。使用財務特定數(shù)據(jù)集,研究了3種尺寸:Flan-T5 base (250M), Flan-T5 large (780M)和Flan-T5-xl (3B參數(shù))。

論文概述

論文首先總結了特定于金融領域的SOTA模型:

  • FinBERT:使用總計4.9B Token組的金融通信語料庫進行微調(diào)的BERT。
  • bloomberg ggpt:這是一個包含50B個參數(shù)的閉源模型,專門針對各種金融數(shù)據(jù)進行訓練。它在情感分析中表現(xiàn)出良好的性能。
  • 使用LLama-7B對FinGPT進行微調(diào)。該模型使用更少的計算資源實現(xiàn)了與bloomberg ggpt相當?shù)男阅堋?/span>
  • ChatGPT這樣的llm也可以使用零樣本學習。但是他們在少樣本學習中表現(xiàn)并不理想

作者使用了以下模型:

1、沒有進行任何微調(diào):Flan-T5 base (250M), Flan-T5 large (780M), Flan-T5-xl (3B參數(shù)),ChatGPT (gpt-3.5 turbo)。目標是研究模型的大小對零樣本和少樣本學習的影響。

2、微調(diào)llm:具有3個尺寸的相同型號的Flan-T5已經(jīng)進行了微調(diào)。

數(shù)據(jù)集

使用了Twitter財經(jīng)新聞(Twitter Train),包括與金融主題相關的推文,可通過HuggingFace訪問。它包含9540個樣本。

TFSN: 2390個帶有注釋的財經(jīng)相關推文語料庫樣本。

FPB: 4845篇金融新聞文章樣本,由16位領域專家注釋。

GPU資源

為了對3個模型進行微調(diào),作者使用了A100 GPU,每個模型的總訓練時間如下:基本模型28分鐘,大模型54分鐘,XL模型65分鐘,所以說這個微調(diào)是非常節(jié)省資源的。

微調(diào)小型LLMs

結果顯示了經(jīng)過微調(diào)的小型llm優(yōu)于大型llm的性能:

所有Fine-tuned-FLAN-T5的性能都優(yōu)于FinBERT;Large (780M)和XL(3B) fine - tuning - flan - t5性能優(yōu)于directive - lama- 7b;在TFSN數(shù)據(jù)集中,即使是基礎(250M)微調(diào)的flan - t5也比使用ChatGPT (gpt-3.5 turbo)的k-shot上下文學習表現(xiàn)更好。

少樣本學習

以下是0 -shot和k-shot學習的結果(k= 1,5和10):

在TFSN數(shù)據(jù)集上,零樣本和少樣本學習的表現(xiàn)明顯低于所有其他微調(diào)模型。(除了XL,表現(xiàn)比FinBert稍好)

但是在FPB數(shù)據(jù)集中,與ChatGPT相比,Large和XL Flan-T5零樣本和少樣本學習表現(xiàn)出較強的性能。

樣本的增加使得基本型Flan-T5的性能略有提升。但在Large和XL fall - t5中,這導致精度下降。這是因為冗長的上下文窗口可能會導致LLM誤入歧途。

所以作者建議,當k-shot增加時可以使用語義相似檢索或思維鏈(CoT)或線索和推理提示(CARP)方法來解決性能下降的問題。

總結

可以看到,針對特定的領域,微調(diào)小模型還是能過夠得到很好的效果,這在對于我們實際應用是是非常有幫助的,不僅可以節(jié)省成本,還可以節(jié)省我們的訓練時間,可以讓我們進行快速的版本迭代。

論文地址:https://arxiv.org/pdf/2312.08725.pdf

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2023-11-27 15:34:51

大語言模型PubMedBERT

2023-05-29 08:00:00

ChatGPT人工智能機器學習

2024-12-12 09:11:58

2024-07-10 11:38:15

2024-04-02 07:25:19

大語言模型青少年編程NLG

2024-07-09 11:01:24

2024-08-13 08:09:34

2023-09-07 15:01:45

2010-08-19 11:47:28

2017-11-17 05:39:27

DDD建模模型

2024-04-23 07:52:25

2024-06-18 08:21:31

2024-05-16 16:37:33

大型語言模型人工智能

2024-02-26 08:15:43

語言模型低代碼

2025-04-22 08:08:37

2023-11-30 14:38:56

2018-04-26 05:13:39

6W模型領域軟件構造

2024-12-23 16:02:39

2025-03-17 12:52:44

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 免费一区| 中文字幕乱码视频32 | 91啪影院 | 毛片的网址 | 91视频大全| 日韩一区二区视频 | 在线看片国产 | 国产一级片 | 中文字幕二区 | 欧美久久一区二区 | 国产精品91网站 | 国产午夜精品一区二区三区在线观看 | 国产精品一区二区av | 欧美福利一区 | 香蕉视频在线播放 | 黄网站涩免费蜜桃网站 | 亚洲国产成人精品久久久国产成人一区 | 日韩一区二区三区视频 | 午夜影院网站 | 国产精品一区二区三区四区 | 色综合视频在线 | 国产激情视频在线观看 | 精品国产伦一区二区三区观看方式 | 精品99爱视频在线观看 | 欧美黑人国产人伦爽爽爽 | 久久夜视频 | 亚洲视频在线观看免费 | 中文字幕11页 | 亚洲精品久久久久久久久久久 | 黄色免费网站在线看 | av一级| 色婷婷综合网 | 欧美黄色片在线观看 | 欧美一区二区大片 | 99久久视频 | 激情久久网 | 欧区一欧区二欧区三免费 | av在线免费网 | 中文字幕在线网 | 欧美激情欧美激情在线五月 | 欧美成人手机在线 |