成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型技術細節——大模型之文本生成與文檔總結 原創

發布于 2024-8-5 10:43
瀏覽
0收藏

“ 大模型就是一個黑盒,盒子外面的人一直在霧里看花”

我們一直在說大模型大模型,但大部分人都沒深入研究過大模型的具體實現以及隱藏在大模型這個黑盒下的技術細節。

思考個問題,根據要求讓大模型生成一段文字和給大模型一個PDF文本,讓它總結文本內容,這兩種方式是同一種大模型嗎?

文本生成大模型和文檔總結大模型

很多人都簡單的認為,生成文本的模型和進行文檔總結的模型是一回事,都屬于文本處理模型。

因為從使用者的角度來說,只需要告訴它需求或者仍給它一個文檔它就能很好的完成任務;所以說從使用者的角度來說,產生上面的認知也不能說錯。

但事實上,大部分人都被大模型的黑盒給欺騙了,大模型遠遠沒有想的那么簡單。

文本生成模型和文檔總結模型有很多相似之處,但它們的目的和具體的實現方式不盡相同。

大模型技術細節——大模型之文本生成與文檔總結 -AI.x社區

文本生成模型

定義

文本生成模型是通過學習數據的分布生成新的文本內容。它們通常用于生成自然語言文本,如文章、對話、故事等。

目標

生成連貫,符合語法和語義的新文本段落。

常見類型

  1. 自回歸模型
  1. 自回歸模型典型的有GPT(Generative Pre-trained Transformer),也就是生成式預訓練模型,通過逐步預測下一個詞生成文本。

from transformers import GPT2LMHeadModel, GPT2Tokenizer


tokenizer = GPT2Tokenizer.from_pretrained("gpt2")
model = GPT2LMHeadModel.from_pretrained("gpt2")
input_text = "Once upon a time"
input_ids = tokenizer.encode(input_text, return_tensors='pt')
output = model.generate(input_ids, max_length=50)
print(tokenizer.decode(output[0], skip_special_tokens=True))
  1. 自編碼模型
  2. 自編碼模型典型的有BERT(Bidirectional Encoder Representation from Transformers),常用于理解和生成上下文相關文本。

from transformers import BertModel, BertTokenizer


tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertModel.from_pretrained("bert-base-uncased")
input_text = "Hello, my dog is cute"
input_ids = tokenizer.encode(input_text, return_tensors='pt')
outputs = model(input_ids)
print(outputs)

應用場景

  1. 生成文章,故事,對話
  2. 自動寫作和創作
  3. 自然語言對話系統

文檔總結模型

定義

文檔總結模型是通過提取和抽取技術生成簡潔的文檔摘要,它們常用于從長文本中提取關鍵信息,并生成簡明扼要的摘要。

目標

生成文檔的簡要概述,提煉出關鍵信息

常見類型

  1. 抽取式摘要模型(Extractive Summarization Models)
  1. 常見的抽取式摘要模型BERTSUM,基于BERT的抽取式文檔總結模型,通過選擇原文中的重要句子生成摘要。

# 從huggingface中加載模型
from transformers import BertTokenizer, BertForSequenceClassification


tokenizer = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertForSequenceClassification.from_pretrained("bert-base-uncased")
input_text = "Your long document text here."
input_ids = tokenizer.encode(input_text, return_tensors='pt')
outputs = model(input_ids)
print(outputs)
  1. 生成式摘要模型(Abstractive Summarization Models)
  2. T5(Text-to-Text Transfer Transformer),通過生成新的句子來總結文檔。

from transformers import T5Tokenizer, T5ForConditionalGeneration


tokenizer = T5Tokenizer.from_pretrained("t5-small")
model = T5ForConditionalGeneration.from_pretrained("t5-small")
input_text = "summarize: Your long document text here."
input_ids = tokenizer.encode(input_text, return_tensors='pt')
outputs = model.generate(input_ids, max_length=50)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

應用場景

  1. 新聞摘要
  2. 科研論文摘要
  3. 法律文檔摘要
  4. 長文章的概述

區別與聯系

目的

文本生成模型:生成連貫的新文本內容

文檔總結模型:生成文檔的簡明摘要,提取關鍵信息

方法

文本生成模型:使用語言模型(如GPT)根據上下文逐詞生成文本。

文檔總結模型:使用抽取式或生成式方法從文檔中提取或生成摘要

輸入輸出

文本生成模型:

    輸入:起始文本或上下文提示

    輸出:生成新的文本段落

文檔總結模型:

    輸入:完整的文檔或長文本

    輸出:簡明的文檔摘要

總結

盡管文本生成模型和文檔總結模型在技術上有一些重疊,但它們的目的和具體應用場景不同。

文本生成模型用于生成新的文本,而文檔總結模型則用于提煉和總結現有文檔的內容。

學習大模型技術,不能只浮于表面,要深入理解其內部實現;這樣我們才能真正了解大模型能做什么,不能做什么。

也就是常說的,知其然也要知其所以然。


本文轉載自公眾號AI探索時代 作者:DFires

原文鏈接:??https://mp.weixin.qq.com/s/tdhkqUKgG4nOW5Ss3bv1pQ??


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 亚洲第一在线 | 亚洲一区二区三区免费视频 | 91视视频在线观看入口直接观看 | 少妇精品亚洲一区二区成人 | 91av在线免费观看 | 国产在线精品一区二区 | 四虎影音 | 精品一区二区三区在线观看国产 | 国产免费一区二区三区最新6 | 欧美理论片在线观看 | 九九久久免费视频 | 久久av一区二区三区 | 日韩精品一区二区三区高清免费 | 天天夜天天操 | av在线播放一区二区 | 国产精品永久免费 | 欧美偷偷操 | 国产欧美精品 | 中文字幕在线观看精品 | 天堂av影院 | 福利视频大全 | 久久久久久国产 | 精品欧美激情在线观看 | 国产精品中文字幕一区二区三区 | 色综合久久天天综合网 | 在线看黄免费 | 都市激情亚洲 | 成人免费福利视频 | 91美女在线 | 男女性毛片| 精品久久久久久亚洲综合网站 | 国产精品日韩欧美一区二区三区 | 尹人av| 91精品国产综合久久婷婷香蕉 | 国产在线激情视频 | 九九亚洲 | 国产精品成人一区二区三区 | 国产一区二区三区四区区 | 草草草影院 | 免费色网址 | 污片在线免费观看 |