成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

大模型面經(jīng)——以醫(yī)療領域為例,整理RAG基礎與實際應用中的痛點 原創(chuàng)

發(fā)布于 2024-10-16 10:24
瀏覽
0收藏

?RAG相關理論知識與經(jīng)驗整理。

談到大模型在各垂直領域中的應用,一定離不開RAG,本系列開始分享一些RAG相關使用經(jīng)驗,可以幫助大家在效果不理想的時候找到方向排查或者優(yōu)化。

本系列以醫(yī)療領域為例,用面試題的形式講解RAG相關知識,開始RAG系列的分享~

本篇主要是理論知識與經(jīng)驗;后續(xù)會結合最新的優(yōu)化方法給出詳細的優(yōu)化代碼,和實踐中衍生的思考。

下面是本篇的快捷目錄。

1. RAG思路

2. RAG中的prompt模板

3. 檢索架構設計

一、RAG思路 

這里有一張經(jīng)典的圖:

大模型面經(jīng)——以醫(yī)療領域為例,整理RAG基礎與實際應用中的痛點-AI.x社區(qū)

具體步驟是:

  • 加載文件 
  • 讀取文本 
  • 文本分割 
  • 文本向量化 
  • 問句向量化 
  • 在文本向量中匹配出與問句向量最相似的top k個 
  • 匹配出的文本作為上下文和問題一起添加到 prompt 中
  • 提交給 LLM 生成回答

大模型面經(jīng)——以醫(yī)療領域為例,整理RAG基礎與實際應用中的痛點-AI.x社區(qū)

二、RAG中的prompt模板

已知信息:{context}   

根據(jù)上述已知信息,簡潔和專業(yè)的來回答用戶的問題。如果無法從中得到答案,請說 “根據(jù)已知信息無法回答該問題” 或 “沒有提供足夠的相關信息”,不允許在答案中添加編造成分,答案請使用中文。   

問題是:{question}

其中  {context}  就是檢索出來的文檔。

三、檢索架構設計

基于LLM的文檔對話架構分為兩部分,先檢索,后推理。重心在檢索(推薦系統(tǒng)),推理一般結合langchain交給LLM即可。

因此接下來主要是檢索架構設計內容。

1. 檢索要求

  • 提高召回率
  • 能減少無關信息
  • 速度快

2. 檢索邏輯

拿到需要建立檢索庫的文本,將其組織成二級索引,第一級索引是 [關鍵信息],第二級是 [原始文本],二者一一映射。 [關鍵信息]用于加快檢索, [原始文本]用于返回給prompt得到結果。

向量檢索基于關鍵信息embeddig,參與相似度計算,檢索完成后基于關鍵信息與原始文本的映射,將原始文本內容作為  {context}   返回。

主要架構圖如下:

大模型面經(jīng)——以醫(yī)療領域為例,整理RAG基礎與實際應用中的痛點-AI.x社區(qū)

3. 切分與關鍵信息抽取

關鍵信息抽取前需要先對拿到的文檔進行切分。

其實文檔切分粒度比較難把控,粒度過小的話跨段落語義信息可能丟失,粒度過大噪聲又太多。因此在切分時主要是按語義切分。

因此拿到文檔先切分再抽取關鍵信息,可根據(jù)實際情況考慮是否進行文章、段落、句子更細致粒度的關鍵信息抽取。

下面具體來講講方法和經(jīng)驗:

1)切分

  • 基于NLP篇章分析(discourse parsing)工具?

提取出段落之間的主要關系,把所有包含主從關系的段落合并成一段。這樣對文章切分完之后保證每一段在說同一件事情。

  • 基于BERT中NSP(next sentence prediction)的訓練任務?

基于NSP(next sentence prediction)任務。設置相似度閾值t,從前往后依次判斷相鄰兩個段落的相似度分數(shù)是否大于t,如果大于則合并,否則斷開。

2)關鍵信息抽取

  • 直接存儲以標點切分的句子:只適用于向量庫足夠小(檢索效率高)且query也比較類似的情況。
  • 傳統(tǒng)NLP工具:成分句法分析(constituency parsing)可以提取核心部分(名詞短語、動詞短語……);命名實體識別(NER)可以提取重要實體(貨幣名、人名、企業(yè)名……)。
  • 生成關鍵詞模型:類似于ChatLaw中的keyLLM,,即:訓練一個生成關鍵詞的模型。在醫(yī)療領域中,這個方法是目前比較靠譜且能通用的方法。

參考資料

[1] GitHub - imClumsyPanda/Langchain-Chatchat-dev: Langchain-Chatchat 個人開發(fā)Repo(https://github.com/imClumsyPanda/Langchain-Chatchat-dev)

[2] 基于LLM+向量庫的文檔對話痛點及解決方案 - 知乎 (zhihu.com)(https://zhuanlan.zhihu.com/p/651179780)

[3] LLM+Embedding構建問答系統(tǒng)的局限性及優(yōu)化方案 - 知乎 (zhihu.com)(https://zhuanlan.zhihu.com/p/641132245)

?

文轉載自公眾號瓦力算法學研所,作者:喜歡瓦力的卷卷

原文鏈接:??https://mp.weixin.qq.com/s/-YaFjsEPvQQVYYyjxc_DQw???


?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 碰碰视频 | 国产女人与拘做受视频 | 偷拍第一页 | 午夜欧美| 一区二区三区在线免费看 | 欧美亚洲视频 | av日韩高清 | 超碰日本| 国产欧美视频一区二区 | 国产成人a亚洲精品 | 日韩欧美中文字幕在线观看 | 夜夜夜操| 1级黄色大片 | 欧美在线综合 | 成人在线视频观看 | 国产精品欧美一区二区 | 黄色三级免费网站 | 欧美亚洲另类丝袜综合网动图 | 欧美精品三区 | 亚洲福利一区二区 | 亚洲精品乱码久久久久久按摩 | 国产精品成人一区二区三区 | 精品久久99 | 国产精品亚洲视频 | 狠狠干美女| 免费国产视频 | 婷婷在线免费 | 精品国产18久久久久久二百 | 一区二区三区亚洲精品国 | 欧美理伦片在线播放 | 午夜影院在线观看免费 | 91电影在线| 亚洲精品1 | 成人在线看片 | 亚洲精品自在在线观看 | 久久久网 | 久久综合成人精品亚洲另类欧美 | 国产精品高清在线 | 最新黄色毛片 | 国产区一区 | 色姑娘av |