成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

采用代碼聊天:理解代碼庫的對話式人工智能 原創

發布于 2024-8-22 08:19
瀏覽
0收藏

在不斷發展的軟件開發環境中,與代碼庫進行對話式交互可以改變游戲規則。

想象一下,有一個工具可以理解你的代碼,可以回答你的問題,提供見解,甚至幫助你調試問題——所有這些都是通過自然語言查詢實現的。本文將引導你完成創建對話式人工智能的過程,該過程允許使用Chainlit、Qdrant和OpenAI與你的代碼進行對話。

對話式人工智能對代碼庫的好處

  • 簡化代碼審查:快速審查特定的代碼模塊并了解其場景,而無需花費更多的時間挖掘文件。
  • 高效調試:詢問代碼中潛在的問題,并獲得有針對性的響應,這有助于減少故障排除所花費的時間。
  • 增強學習: 新的團隊成員可以了解代碼中不同組件的工作原理,而無需向現有的代碼專家學習。
  • 改進文檔:使用人工智能進行總結有助于生成復雜代碼的解釋,從而更容易增強文檔。

以下介紹是如何做到這一點的。

為交互準備代碼庫

第一步是確保代碼庫已經準備好進行交互。這可以通過將代碼向量化并將其存儲在向量數據庫中來實現,從而有效地對其進行審查。

Python

1 import openai
2 import yaml
3 import os
4 import uuid
5 from qdrant_client import QdrantClient, models
6
7 # Load configuration from config.yaml
8 with open("config.yaml", "r") as file:
9 config = yaml.safe_load(file)
10
11 # Extract API keys and URLs from the config
12 qdrant_cloud_url = config["qdrant"]["url"]
13 qdrant_api_key = config["qdrant"]["api_key"]
14 openai_api_key = config["openai"]["api_key"]
15 code_folder_path = config["folder"]["path"]
16
17 # Initialize OpenAI API
18
openai.api_key = openai_api_key
19
20 # Initialize Qdrant client
21 client = QdrantClient(
22 url=qdrant_cloud_url,
23 api_key=qdrant_api_key,
24 )
25
26 def chunk_code(code, chunk_size=512):
27 """
28 Splits the code into chunks, each of a specified size.
29 This helps in generating embeddings for manageable pieces of code.
30 """
31 lines = code.split('\n')
32 for i in range(0, len(lines), chunk_size):
33 yield '\n'.join(lines[i:i + chunk_size])
34
35 def vectorize_and_store_code(code, filename):
36 try:
37 # Chunk the code for better embedding representation
38 code_chunks = list(chunk_code(code))
39
40 # Generate embeddings for each chunk using the OpenAI API
41 embeddings = []
42 for chunk in code_chunks:
43 response = openai.embeddings.create(
44 input=[chunk], # Input should be a list of strings
45 model="text-embedding-ada-002"
46 )
47
48 # Access the embedding data correctly
49 embedding = response.data[0].embedding
50 embeddings.append(embedding)
51
52 # Flatten embeddings if needed or store each chunk as a separate entry
53 if len(embeddings) == 1:
54 final_embeddings = embeddings[0]
55 else:
56 final_embeddings = [item for sublist in embeddings for item in 
sublist]
57
58 # Ensure the collection exists
59 try:
60 client.create_collection(
61 collection_name="talk_to_your_code",
62 vectors_config=models.VectorParams(size=len(final_embeddings), 
distance=models.Distance.COSINE)
63 )
64 except Exception as e:
65 print("Collection already exists or other error:", e)
66
67 # Insert each chunk into the collection with relevant metadata
68 for i, embedding in enumerate(embeddings):
69 point_id = str(uuid.uuid4())
70 points = [
71 models.PointStruct(
72 id=point_id,
73 vector=embedding,
74 payload={
75 "filename": filename,
76 "chunk_index": i,
77 "total_chunks": len(embeddings),
78 "code_snippet": code_chunks[i]
79 }
80 )
81 ]
82 client.upsert(collection_name="talk_to_your_code", points=points)
83
84 return f"{filename}: Code vectorized and stored successfully."
85
86 except Exception as e:
87 return f"An error occurred with {filename}: {str(e)}"
88
89 def process_files_in_folder(folder_path):
90 for filename in os.listdir(folder_path):
91 if filename.endswith(".py"):
92 file_path = os.path.join(folder_path, filename)
93 with open(file_path, 'r', encoding='utf-8') as file:
94 code = file.read()
95 print(vectorize_and_store_code(code, filename))
96
97 if __name__ == "__main__":
98 process_files_in_folder(code_folder_path)
99

現在了解上述代碼值得注意的方面。

  • 加載代碼文件并將其分塊為可管理的部分。
  • 分塊是一個非常重要的環節。塊的大小不應過小,以至于你想要了解的函數或模塊可以在多個塊中使用;也不應該太大,以至于多個函數或模塊被壓縮到一個塊中;這兩種情況都會降低檢索質量。
  • 使用OpenAI的text- embeddings -ada-002模型為每個塊生成嵌入。
  • 在Qdrant中處理和存儲嵌入以增強檢索。
  • 向代碼塊中添加元數據將有助于檢索特定的組件,并使代碼對話功能更加強大。
  • 為簡單起見,使用了一個文件夾路徑,其中放置了用于構建這個對話模塊的兩個代碼文件。這個設置可以進一步擴展,以便指向GitHub上的URL。
  • 使用2個Python文件,即ragwithknowledgegraph.py和ragwithoutknowledgegraph.py用于生成代碼塊的嵌入向量,并將其存儲在矢量數據庫中,可以通過聊天界面對其進行提問。

構建對話界面

現在將設置一個Chainlit界面,該界面接受用戶輸入,查詢Qdrant,并返回關于代碼的場景相關信息。

Python

1 import chainlit as cl
2 import qdrant_client
3 import openai
4 import yaml
5 from langchain_openai import ChatOpenAI, OpenAIEmbeddings
6 from langchain.prompts import PromptTemplate
7
8 # Load configuration from config.yaml
9 with open("config.yaml", "r") as file:
10 config = yaml.safe_load(file)
11
12 # Extract API keys and URLs from the config
13 qdrant_cloud_url = config["qdrant"]["url"]
14 qdrant_api_key = config["qdrant"]["api_key"]
15 openai_api_key = config["openai"]["api_key"]
16
17 # Initialize OpenAI API
18 openai.api_key = openai_api_key
19
20 # Initialize OpenAI Embeddings
21 embeddings = OpenAIEmbeddings(model="text-embedding-ada-002", 
openai_api_key=openai_api_key)
22
23 # Initialize Qdrant client
24 client = qdrant_client.QdrantClient(
25 url=qdrant_cloud_url,
26 api_key=qdrant_api_key,
27 )
28
29 # Initialize OpenAI Chat model
30 chat_model = ChatOpenAI(openai_api_key=openai_api_key, model="gpt-4")
31
32 # Define a simple QA prompt template
33 qa_prompt_template = PromptTemplate(
34 input_variables=["context", "question"],
35 template="Given the following context:\n{context}\nAnswer the following 
question:\n{question}"
36 )
37
38 # Chainlit function to handle user input
39 @cl.on_message
40 async def handle_message(message: cl.message.Message):
41 try:
42 # Extract the actual text content from the message object
43 user_input = message.content
44
45 # Generate the query vector using OpenAI Embeddings
46 query_vector = embeddings.embed_query(user_input)
47
48 # Manually send the query to Qdrant
49 response = client.search(
50 collection_name="talk_to_your_code",
51 query_vector=query_vector,
52 limit=5
53 )
54
55 # Process and retrieve the relevant context (code snippets) from the 
Qdrant response
56 context_list = []
57 for point in response:
58 code_snippet = point.payload.get('code_snippet', '')
59 filename = point.payload.get('filename', 'Unknown')
60 context_list.append(f"Filename: {filename}\nCode 
Snippet:\n{code_snippet}\n")
61
62 context = "\n".join(context_list)
63 if not context:
64 context = "No matching documents found."
65
66 # Generate a response using the LLM with the retrieved context
67 prompt = qa_prompt_template.format(context=context, 
question=user_input)
68 response_text = chat_model.predict(prompt)
69
70 # Send the LLM's response
71 await cl.Message(content=response_text).send()
72
73 except Exception as e:
74 # Log the error
75 print(f"Error during message handling: {e}")
76 await cl.Message(content=f"An error occurred: {str(e)}").send()
77
78 if __name__ == "__main__":
79 cl.run()
80

上述代碼的重要方面包括:

  • 初始化Chainlit并配置其與OpenAI和Qdrant交互。
  • 為輸入生成查詢向量,以幫助從Qdrant檢索相關代碼片段。
  • 定義一個提示模板,將從Qdrant檢索到的場景與用戶的問題結合起來。
  • 將場景和問題提供給OpenAI的語言模型,并將生成的答案返回給用戶。
  • 需要注意的是,為了更好地理解,簡化了一些實現。

聊天界面的輸出

以下了解當要求總結其中一個代碼文件時聊天界面生成的輸出。如上所述,將2個Python文件加載到vector db,并要求概述其中一個腳本。

這兩個腳本中,一個使用了知識圖譜來實現一個簡單的RAG(檢索增強生成)用例,而另一個則沒有使用。大型語言模型(LLM)以自然語言的方式很好地完成了對腳本的概述。

采用代碼聊天:理解代碼庫的對話式人工智能-AI.x社區

下一步驟

  • 通過整合額外的元數據來識別代碼的各個方面,從而改進檢索。
  • 將聊天界面集成到GitHub URL中,并導入可用于提問的代碼庫。
  • 通過詢問具體和廣泛的問題來測試應用程序,以了解應用程序對場景的理解程度。
  • 工程師使用各種不同的提示進行提示和測試檢索。

結論

創建一個能夠理解你的代碼庫的對話式人工智能,將在開發過程中解鎖一個新的效率和洞察力水平。無論是在簡化代碼審查、加速調試,還是增強團隊協作,這種方法都提供了巨大的價值。通過這種簡單的方法,可以改變與代碼交互的方式。

原文標題:Chat With Your Code: Conversational AI That Understands Your Codebase,作者:Prince Bose,Tharakarama Reddy Yernapalli Sreenivasulu,Pavan Vemuri

鏈接:https://dzone.com/articles/conversational-ai-that-understands-your-codebase。

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2024-8-22 08:20:25修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 亚洲午夜视频在线观看 | 黄色小视频大全 | 一区二区三区亚洲 | 国产精品欧美精品日韩精品 | 伊人成人免费视频 | 婷婷国产一区 | 日韩精品在线观看一区二区 | 国产亚洲欧美在线 | 精品亚洲一区二区三区四区五区 | 欧美日韩亚洲三区 | 久久一二| 欧美日韩福利视频 | 欧美一级二级在线观看 | 免费一级片 | 看片网站在线 | 一区二区国产精品 | 美国a级毛片免费视频 | 99re| 久久激情视频 | 一本综合久久 | 伊人久久伊人 | aa级毛片毛片免费观看久 | 国产精品精品 | 久久久久国产一区二区三区 | 天堂资源 | 中国一级特黄毛片大片 | 久久久久久免费毛片精品 | 91午夜在线 | 中文在线а√在线8 | 免费成人国产 | 日韩在线一区二区三区 | 国产精品久久久久久久久久久久久 | 日韩av中文 | 国产成人精品高清久久 | 欧美精品一区二区三区四区五区 | 国产无人区一区二区三区 | 色天天综合 | 五月婷婷婷 | 国产精品国产成人国产三级 | 日韩在线观看中文字幕 | 狠狠操在线 |