成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

RAG高階技巧-如何實現窗口上下文檢索

人工智能
在本文中,我們介紹了提高RAG模型檢索效果的高階技巧-窗口上下文檢索。我們首先回顧了基礎RAG的檢索流程和存在的問題,然后介紹了窗口上下文檢索的原理和實現方法,最后通過一個實例展示了其效果。

在本文中,我們將介紹一種提高RAG(Retrieval-Augmented Generation)模型檢索效果的高階技巧,即窗口上下文檢索。我們將首先回顧一下基礎RAG的檢索流程和存在的問題,然后介紹窗口上下文檢索的原理和實現方法,最后通過一個實例展示其效果。

圖片 基礎RAG存在的問題及解決方案 基礎RAG檢索流程 RAG是一種結合了檢索和生成的AI應用落地的方案,它可以根據給定的問題生成回答,同時利用外部知識庫(例如維基百科)來增強生成的質量和多樣性。RAG的核心思想是將問題和知識庫中的文檔進行匹配,然后將匹配到的文檔作為生成模型的輸入,從而生成更加相關和豐富的回答。

圖片 RAG的檢索流程可以分為以下幾個步驟:

load:加載文檔,將各種格式的文件加載后轉化為文檔,例如將pdf加載為文本數據,或者將表格轉換為多個鍵值對。 split:將文檔拆分為適合向量存儲的較小單元,以便于與向量存儲,以及檢索時的文檔匹配,例如將“我是kxc。我喜歡唱跳,rap,和籃球。”拆分為“我是kxc。”和“我喜歡唱跳,rap,和籃。”兩個數據分塊(一般稱之為chunk)。 embedding:將文檔用向量表示,例如使用BERT或TF-IDF等模型進行向量化。 store: 將向量化后的數據分塊,存入向量數據庫。 retrive:根據問題和文檔的向量,計算它們之間的相似度,然后根據相似度的高低,選擇最相關的文檔作為檢索結果,例如使用余弦相似度或點積等度量進行排序。 query:將檢索到的文檔作為生成模型的輸入,根據問題生成回答,例如使用GPT-3或T5等模型進行生成。 基礎RAG存在的問題 圖片 基礎RAG的檢索流程雖然簡單,但是也存在一些問題,主要是在split和retrive兩個步驟中。這些問題會影響RAG的檢索效果,從而導致生成的回答不準確或不完整。

split拆分的塊太大,在retrive時,同一塊中非相關的內容就越多,對問題的檢索匹配度影響越大,會導致檢索的不準確。例如,如果我們將維基百科中的一篇文章作為一個文檔,那么這個文檔可能包含很多不同的主題和細節,與問題的相關性會很低。如果我們將這個文檔作為檢索結果,那么生成模型可能會從中提取出一些無關或錯誤的信息,從而影響回答的質量。

split拆分的塊太小,檢索的匹配度會提高,然而在最后的query環節,提供給llm使用的信息會由于缺少上下文的信息支撐,導致回答不準確。例如,如果我們將維基百科中的一篇文章拆分為多個句子,那么每個句子可能只包含一小部分的信息,與問題的相關性會很高。如果我們將這些句子作為檢索結果,那么生成模型可能會從中提取出一些有用的信息,但是也可能會忽略一些重要的上下文信息,從而影響回答的完整性。

解決方案-窗口上下文檢索 圖片 解決這個問題一般采取的方案是,在split拆分時,盡量將文本切分到最小的語義單元。retrive時,不直接使用匹配到doc,而是通過匹配到的doc拓展其上下文內容后整合到一起,在投遞到LLM使用。這樣,既可以提高檢索的精度,又可以保留上下文的完整性,從而提高生成的質量和多樣性。

具體來說,這種方案的實現步驟如下:

在split拆分時,將文本切分為最小的語義單元,例如句子或段落,并給每個單元分配一個唯一的編號,作為其在文本中的位置信息。 在retrive檢索時,根據問題和文檔的向量,計算它們之間的相似度,然后選擇最相關的文檔作為檢索結果,同時記錄下它們的編號。 在query生成時,根據檢索結果的編號,從文本中獲取它們的上下文信息,例如前后若干個單元,然后將它們拼接成一個完整的文檔,作為生成模型的輸入,根據問題生成回答。 窗口上下文檢索實踐 上下文檢索實現思路 我們從最終要實現的目標著手,也就是在retrive時要能通過匹配到doc拓展出與這個doc內容相關的上下文。要想實現這個目標,我們就必須建立每個doc與其上下文的關聯關系。這個關系的建立其實十分簡單,只需要按順序給拆分出來的每個doc進行編號,在檢索時通過當前文檔的編號就能匹配到相關上下文doc的編號,進而獲取上下文的內容。

基于chroma向量庫的代碼實踐 想要實踐以上思路,需要在split環節基于文檔順序,將文檔編碼寫入元數據。在檢索時,則通過元數據中的順序分塊編碼來查找上下文。具體的代碼如下:

1.split時對分塊編碼并寫入元數據 import bs4,uuid from langchain.text_splitter import RecursiveCharacterTextSplitter from langchain_community.document_loaders import WebBaseLoader from langchain_community.vectorstores import Chroma from langchain_openai import OpenAIEmbeddings

Load, chunk and index the contents of the blog.

loader = WebBaseLoader( web_paths=("

text_splitter = RecursiveCharacterTextSplitter(chunk_size=1000, chunk_overlap=200) docs = text_splitter.split_documents(doc)

這里給每個docs片段的metadata里注入file_id

file_id = uuid.uuid4().hex chunk_id_counter = 0 for doc in docs: doc.metadata["file_id"] = file_id doc.metadata["chunk_id"] = f'{file_id}_{chunk_id_counter}' # 添加chunk_id到metadata chunk_id_counter += 1 for key,value in doc.metadata.items(): if not isinstance(value, (str, int, float, bool)): doc.metadata[key] = str(value)

vectorstore = Chroma.from_documents(documents=splits, embedding=OpenAIEmbeddings())

2.retrive時通過元數據中的順序分塊編碼來查找上下文 def expand_doc(group): new_cands = [] group.sort(key=lambda x: int(x.metadata['chunk_id'].split('_')[-1])) id_set = set() file_id = group[0].metadata['file_id']

group_scores_map = {}
# 先找出該文件所有需要搜索的chunk_id
cand_chunks = []
for cand_doc in group:
    current_chunk_id = int(cand_doc.metadata['chunk_id'].split('_')[-1])
    group_scores_map[current_chunk_id] = cand_doc.metadata['score']
    for i in range(current_chunk_id - 200, current_chunk_id + 200):
        need_search_id = file_id + '_' + str(i)
        if need_search_id not in cand_chunks:
            cand_chunks.append(need_search_id)
where = {"chunk_id": {"$in": cand_chunks}}

ids,group_relative_chunks = get(where)

group_chunk_map = {int(item.metadata['chunk_id'].split('_')[-1]): item.page_content for item in group_relative_chunks}
group_file_chunk_num = list(group_chunk_map.keys())
for cand_doc in group:
    current_chunk_id = int(cand_doc.metadata['chunk_id'].split('_')[-1])
    doc = copy.deepcopy(cand_doc)
    id_set.add(current_chunk_id)
    docs_len = len(doc.page_content)
    for k in range(1, 200):
        break_flag = False
        for expand_index in [current_chunk_id + k, current_chunk_id - k]:
            if expand_index in group_file_chunk_num:
                merge_content = group_chunk_map[expand_index]
                if docs_len + len(merge_content) > CHUNK_SIZE:
                    break_flag = True
                    break
                else:
                    docs_len += len(merge_content)
                    id_set.add(expand_index)
        if break_flag:
            break

id_list = sorted(list(id_set))
id_lists = seperate_list(id_list)
for id_seq in id_lists:
    for id in id_seq:
        if id == id_seq[0]:
            doc = Document(page_content=group_chunk_map[id],
                            metadata={"score": 0, "file_id": file_id})
        else:
            doc.page_content += " " + group_chunk_map[id]
    doc_score = min([group_scores_map[id] for id in id_seq if id in group_scores_map])
    doc.metadata["score"] = doc_score
    new_cands.append(doc)
return new_cands

總結 在本文中,我們介紹了提高RAG模型檢索效果的高階技巧-窗口上下文檢索。我們首先回顧了基礎RAG的檢索流程和存在的問題,然后介紹了窗口上下文檢索的原理和實現方法,最后通過一個實例展示了其效果。

責任編輯:武曉燕 來源: AI小智
相關推薦

2025-05-07 08:35:11

2025-05-09 07:50:30

2024-09-30 14:10:00

2022-09-15 08:01:14

繼承基礎設施基礎服務

2022-09-14 13:13:51

JavaScript上下文

2024-06-06 08:42:01

2017-05-11 14:00:02

Flask請求上下文應用上下文

2024-09-05 08:24:09

2012-12-31 10:01:34

SELinuxSELinux安全

2024-03-14 08:11:45

模型RoPELlama

2025-02-26 00:16:56

RAGAI服務

2017-06-27 18:52:05

TensorFlow深度學習

2025-03-19 08:43:17

檢索增強生成RAG大型語言模型

2025-04-28 09:02:14

2025-05-27 00:40:00

RAG大模型人工智能

2024-02-27 11:47:44

AI數據

2012-08-10 13:32:08

.NETAOP架構

2024-11-14 09:00:00

Python上下文管理器

2017-12-17 17:01:23

限界上下文系統模型

2022-10-28 16:24:33

Context上下文鴻蒙
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产精品一区二区久久 | 午夜一级黄色片 | 999免费视频 | 免费黄色大片 | 粉嫩在线| 人人爽日日躁夜夜躁尤物 | 国产高清一区二区三区 | 欧美激情视频一区二区三区在线播放 | 91精品在线观看入口 | 伊人春色在线观看 | 夜夜爽99久久国产综合精品女不卡 | 欧美激情视频一区二区三区在线播放 | 久久大香 | 午夜久久久久久久久久一区二区 | 亚洲高清一区二区三区 | 成人视屏在线观看 | 久久国内| 亚洲视频在线观看 | 有码一区 | 成人午夜在线观看 | 天天艹天天干天天 | 九九热在线免费视频 | 在线一区视频 | 日韩精品一区二区三区在线观看 | 久久久国产精品 | 欧美日韩精品综合 | 亚洲精品无 | 综合久久av| 色综合久久天天综合网 | 亚洲一区二区三区在线视频 | 久久一区二区三区四区 | 成人精品 | 亚洲高清一区二区三区 | 一区二区三区在线观看视频 | 日本人爽p大片免费看 | 亚洲精品国产第一综合99久久 | 一区二区三区国产 | 久久天堂网 | 91精品国产色综合久久 | 91精品国产乱码久久久久久久 | 国产精品久久久久久久久 |