成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

30行Python代碼就可以調用ChatGPT API總結論文的主要內容

開發 前端 人工智能
閱讀論文可以說是我們的日常工作之一,論文的數量太多,我們如何快速閱讀歸納呢?自從ChatGPT出現以后,有很多閱讀論文的服務可以使用。其實使用ChatGPT API非常簡單,我們只用30行python代碼就可以在本地搭建一個自己的應用。

閱讀論文可以說是我們的日常工作之一,論文的數量太多,我們如何快速閱讀歸納呢?自從ChatGPT出現以后,有很多閱讀論文的服務可以使用。其實使用ChatGPT API非常簡單,我們只用30行python代碼就可以在本地搭建一個自己的應用。

使用 Python 和 ChatGPT API 總結論文的步驟很簡單:

  • 用于 PDF 處理的 PyPDF2 和用于與 GPT-3.5-turbo 接口的 OpenAI。
  • 使用 PyPDF2 打開并閱讀 PDF 文件。
  • 遍歷 PDF 文檔中的每一頁,提取文本。
  • 使用 GPT-3.5-turbo 為每個頁面的文本生成摘要。
  • 合并摘要并將最終摘要文本保存到文件中。
import PyPDF2
import openai
pdf_summary_text = ""

解析pdf

pdf_file_path = "./pdfs/paper.pdf"
pdf_file = open(pdf_file_path, 'rb')
pdf_reader = PyPDF2.PdfReader(pdf_file)

獲取每一頁的文本:

for page_num in range(len(pdf_reader.pages)):
page_text = pdf_reader.pages[page_num].extract_text().lower()

使用openai的api進行匯總

response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful research assistant."},
{"role": "user", "content": f"Summarize this: {page_text}"},
],
)
page_summary = response["choices"][0]["message"]["content"]

合并摘要

pdf_summary_text += page_summary + "\n"
pdf_summary_file = pdf_file_path.replace(os.path.splitext(pdf_file_path)[1], "_summary.txt")
with open(pdf_summary_file, "w+") as file:
file.write(pdf_summary_text)

搞定,關閉pdf文件,回收內存

pdf_file.close()

完整代碼如下:

import os
import PyPDF2
import re
import openai

# Here I assume you are on a Jupiter Notebook and download the paper directly from the URL
!curl -o paper.pdf https://arxiv.org/pdf/2301.00810v3.pdf?utm_source=pocket_saves

# Set the string that will contain the summary
pdf_summary_text = ""
# Open the PDF file
pdf_file_path = "paper.pdf"
# Read the PDF file using PyPDF2
pdf_file = open(pdf_file_path, 'rb')
pdf_reader = PyPDF2.PdfReader(pdf_file)
# Loop through all the pages in the PDF file
for page_num in range(len(pdf_reader.pages)):
# Extract the text from the page
page_text = pdf_reader.pages[page_num].extract_text().lower()

response = openai.ChatCompletion.create(
model="gpt-3.5-turbo",
messages=[
{"role": "system", "content": "You are a helpful research assistant."},
{"role": "user", "content": f"Summarize this: {page_text}"},
],
)
page_summary = response["choices"][0]["message"]["content"]
pdf_summary_text+=page_summary + "\n"
pdf_summary_file = pdf_file_path.replace(os.path.splitext(pdf_file_path)[1], "_summary.txt")
with open(pdf_summary_file, "w+") as file:
file.write(pdf_summary_text)

pdf_file.close()

with open(pdf_summary_file, "r") as file:
print(file.read())

需要說明的是2個事情:

1、openai的API免費調用額度是有限的,這個方法一篇論文大概在0.2-0.5美元左右,根據論文長度會有變化

2、gpt4的API我沒測試,因為我還沒有申請到,并且看價格那個太貴了(貴20倍)我覺得不值,但是可以試試把論文的圖表一同傳過去,是不是會有更好效果(不確定)

責任編輯:華軒 來源: DeepHub IMBA
相關推薦

2024-01-07 16:56:59

Python人工智能神經網絡

2022-07-14 10:54:15

Python代碼Matplotlib

2022-07-06 08:32:35

Python代碼Matplotlib

2020-05-11 17:12:52

換臉Python圖像

2023-04-26 07:32:04

python代碼文字信息

2015-12-21 13:11:02

開源A-FrameWebGL

2021-02-23 07:01:24

js小游戲技術

2022-10-17 07:16:08

SQL機器學習AI

2022-08-14 16:15:52

Python機器學習大數據

2017-02-13 09:33:32

2010-01-04 10:17:16

Silverlight

2010-01-04 10:34:01

Silverlight

2020-09-26 21:41:30

進度條Python代碼

2018-07-19 06:07:22

物聯網安全物聯網IOT

2020-07-06 10:55:38

CIO首席信息官IT

2022-02-28 17:57:44

云遷移云計算

2022-02-28 22:58:04

云遷移IT開發

2018-11-27 09:21:41

負載均衡機器Session

2021-02-23 12:30:21

VS CodeGithub代碼
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 成人av激情 | 国产精品福利久久久 | 成年人黄色一级片 | 超碰伊人久久 | 在线免费观看黄色网址 | 亚洲一区二区国产 | 宅女噜噜66国产精品观看免费 | 免费美女网站 | 在线国产一区二区 | а天堂中文最新一区二区三区 | 日韩成人av在线 | 欧美亚州综合 | 国产欧美日韩在线一区 | 亚洲视频在线观看 | 欧美日韩大片 | 日韩手机在线看片 | 日日想夜夜操 | 久久久久久久久国产成人免费 | 久久国产福利 | 亚洲综合区 | 欧美成人一级 | 国内精品视频一区二区三区 | 国产乱码精品一品二品 | 一级毛片色一级 | 国产精品明星裸体写真集 | 久久中文字幕一区 | 亚洲电影一区二区三区 | 精品综合 | 亚洲三区在线 | 三级免费av| 国产99久久久国产精品下药 | 色综合天天综合网国产成人网 | 少妇一级淫片免费放播放 | wwww.xxxx免费| 亚洲午夜精品一区二区三区 | 国产伦精品一区二区三区精品视频 | 国产精品久久国产精品久久 | 免费欧美 | 2018国产大陆天天弄 | 在线观看三级av | 在线观看视频一区二区三区 |