成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

用 MCP 讓大模型自動批量下載文獻,太香了!

發布于 2025-3-25 00:34
瀏覽
0收藏

MCP 最近這么火,你還不知道它是啥嗎?別慌,動手實戰一番就包你明白了。

而且,咱這個是真的實戰,絕對干貨啊,全網少見的干貨。

我們之前講了很多建立知識庫之類的,新鮮的知識才有意思嘛。問題是新鮮貨哪里來呢,徒手去搜索加下載?2025 年了,咱不能這么干了。

你有沒有想過讓大模型自動給我們搜索、下載、解讀文獻,一條龍服務?即便像 Deep Research 之類的服務也主要是幫你搜索和整合資源,但不給你下載資源對不。

實際上,是可以手擼一個智能體幫我們干這項大工程的。只是現在不是流行 MCP 嘛,咱們也想通過這種方式來建一個。

馬上給你安排上。

本篇將以 arxiv 為例,目標是讓你發個話,智能體就幫你搜索、下載文獻,甚至解讀一條龍到家。

為了照顧不同需求,咱這里貼心地實現了兩套方案,

  • Trae CN + Cline,功能強大
  • Cherry Studio,容易上手
當然,如果你喜歡的話,也不攔著你直接用 Python 開干。

1、MCP

這個概念最近很熱,相信大家都見過。這里簡要地作個解釋,畢竟本篇的主旨是在于動手實踐。

你別看網文一篇一篇,不如跟著本篇擼一擼,你就真刀真槍見識過了。

當然,概念了解下還是有必要的。先看一個圖,心急的話也可以跳過此圖看下面的大白話。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

MCP 作為「模型上下文協議」,可以看成專門為 AI 模型設計生態系統服務,它通過一個標準化的協議來管理和交換 AI 模型所需的各種信息,從而實現與各種外部服務和數據源的無縫集成。

用大白話來說,MCP 就像是 AI 模型(比如 DeepSeek、Gemini 等)的「超級翻譯官」和「萬能助手」。

我們不妨想象一下,AI 模型是個很厲害的專家,但是它自己只會說一種「AI 語言」。它需要跟各種網站、數據庫、工具等外部世界打交道才能完成任務。

  • 翻譯官:這些「外部世界」說的都是不同的「外語」,即各種不同的數據格式和通信方式。MCP 就負責把 AI 模型說的話翻譯成這些外語,也把這些外語翻譯成 AI 模型能聽懂的話。這樣,AI 模型就不用學那么多外語了,只需要跟 MCP 說就行。
  • 萬能助手:AI 模型有時候需要很多信息才能做好一件事,就像做菜需要菜譜、食材、調料一樣。MCP 就負責把 AI 模型需要的所有信息(比如要查的資料、要用的工具、之前的聊天記錄等等)都準備好,打包成一個大禮包(上下文),交給 AI 模型。這樣,AI 模型就能直接開始工作。

舉個例子:

你問 DeepSeek:杭州今天天氣怎么樣?

DeepSeek 自己沒這項功能啊,咋辦?它通過 MCP 獲知提供這項功能的服務,然后使喚它查詢外部天氣預報網站,得知今天杭州的天氣情況,再將數據整理好,最后給你答案:杭州今天晴,最高 27 度。

所以,MCP 的好處是:

  • 簡單:AI 模型不用學那么多外語,不用操心那么多雜事,只需要跟 MCP 打交道。
  • 方便:要加新的功能,比如查天氣、訂機票、下載文獻等,只需要讓 MCP 學會跟新的外部世界打交道就行,不用改 AI 模型本身。
  • 整潔:MCP 把所有亂七八糟的信息都整理好,AI 模型用起來更順手。

總之,MCP 就是一個讓 AI 模型更方便、更強大、更容易跟各種服務和數據打交道的「中間人」。

這時候可以品一下這個圖,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


2、安裝服務

回到主題,我們的目標是自動給咱從 arxiv 上下載文獻,那就先搜一下提供這個功能的 MCP 服務器。

找到兩個,一個如下圖所示,但感覺它主要是搜索,貌似不提供下載業務。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

另一個見下圖,看起來它是能夠下載文獻的。這下省事了,必須給一個大贊。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

本人用的是 mac,下面的安裝流程也是針對它而言。因為手頭沒有 Windows 電腦,稍微有點差異吧,但問題應該不大,稍微搗鼓一下肯定沒問題。

  • 安裝第一個比較方便,用命令??pip install mcp-simple-arxiv?? 即可;
  • 用??brew install uv?? 先安裝??uv??,然后用命令??uv tool install arxiv-mcp-server?? 安裝第二個。

順利的話,很快就搞定啦。主要一點,你安裝過 Python,就方便了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后就是在 Cline 里配置,可以用 VS Code 或者 Cursor、Windsurf 之類的。

此處我們用國貨 Trae 的國內版,安裝插件 Cline 咱就略過了,直接打開 Cline,點擊 MCP 服務器。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后,點擊左側底部的 ??Configure MCP Servers??,像右側那樣填寫,然后看到燈綠就算配置好了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


這樣子就算配置好兩個 MCP 服務了,然后就等著給大模型發號施令:搜索、解讀、下載等任務。搜索和下載不是大模型自己的本事,需要外掛。

在 Cline 中提供了兩種與大模型的交互模式,計劃模式(Plan)和執行模式(Act),分別負責智能規劃任務和高效執行任務。

3、設置大模型

別忘了在 Cline 里選擇大模型!注意,這里需要大模型的 API Key。你可以讓 plan 和 act 使用同一個模型,或者讓它們分別使用不同模型。比如一個用 deepseek-chat,另一個使用 deepseek-reasoner,像下面這樣。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


雖然在 DeepSeek API 那里咱也充了錢,但為了省錢,繼續擼谷歌的羊毛,此處均使用 Gemini 2.0 Pro or Flash。

4、論文智能體

好了,現在就是整裝待發的狀態了。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

Cline 默認在左側,如果你習慣右側開車的話,像下面這樣點擊一下即可發射到右側。


用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區


左側關掉,就可以右側開車了。

給大模型下達命令:幫我搜一下擴散模型和大語言模型相結合的最新論文。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

Gemini 調用 simple-arxiv 搜了 10 篇論文,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

繼續下命令:把這些論文的摘要和方法概要用中文解讀一下,然后存放到一個 Markdown 文件中。

稍等一會兒,左側就自動出現一個 Markdown 文件,里面就是摘要和對方法的簡要解讀。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

下載論文

接下來,我們讓它下載論文。你會發現,這時它會自動調用第二個服務,就是 ??arxiv-mcp-server??。因為第一服務并沒有提供下載業務嘛。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

它會詢問你是否下載到配置好的那個目錄里,選 yes。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

不一會兒,任務完成。不過你也可以讓它給你把文件名改一改。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

上面這樣子其實是比較泛泛地搜索,如果想讓它精細一些,比如讓它搜題目中包含 Self-Supervised Learning 的論文

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

會發現返回的結果不符要求,只有一篇的題目符合要求。

那就給它明確指示:在 arxiv 上使用 ??ti: "Self-Supervised Learning"?? 搜。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

這樣看著就對路了嘛。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

接著,讓它給出詳細信息,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

5、Cherry Studio

如果你沒怎么編過程,也許不喜歡 Trae + Cline 這種方式,那咱們也可以使用可愛的小櫻桃是不。代價是用不了 Trae 強大的文件編輯能力。

因為我們前面已經安裝好相應的工具了,這里只需要配置一下 MCP 服務器即可。

先如下步驟打開配置文件,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

然后,可以直接參考我的配置。

{
  "mcpServers": {
    "arxiv-mcp-server": {
      "command": "uv",
      "args": [
        "tool",
        "run",
        "arxiv-mcp-server",
        "--storage-path",
        "~/Documents/arxiv"
      ]
    },
    "simple-arxiv": {
      "command": "/opt/anaconda3/bin/python",
      "args": [
        "-m",
        "mcp_simple_arxiv"
      ]
    }
  }
}

回到上面那個圖,啟用那里的綠燈點亮的話,就說明 OK 啦。

接著,到聊天界面打開 MCP 服務器。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

最后,選擇大模型,給它上活。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

最后三篇如下,

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

不錯,題目都符合要求。然后,讓它下載一篇看看。

用 MCP 讓大模型自動批量下載文獻,太香了!-AI.x社區

好了,今天就到這里了。

本文轉載自??機器學習與數學??,作者:煦若射

收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 天天干国产 | 福利片在线观看 | 国内精品久久久久久 | 婷婷丁香在线视频 | 亚洲精品久久久一区二区三区 | www.亚洲国产精品 | 久久色视频| 91一区二区 | 婷婷在线免费 | 91久久精品日日躁夜夜躁国产 | 成人免费观看视频 | 午夜影视| 色综合中文| 国产日本精品视频 | 国产在线精品一区 | 久久一级大片 | 亚洲一区二区在线播放 | 久久久久久久久一区 | 黑人精品欧美一区二区蜜桃 | 日韩在线不卡 | 国产中文视频 | 亚洲欧美日韩精品久久亚洲区 | 亚洲一区精品视频 | 国产成人高清 | 免费观看av | 国产精品免费一区二区三区四区 | 国产午夜在线 | 欧美a区 | 国产影音先锋 | 国产精品欧美一区喷水 | 免费一级片 | 日韩视频在线免费观看 | 一片毛片 | a视频在线观看 | 中文字幕国产精品 | 在线高清免费观看视频 | 99色播 | 91综合网| 午夜免费观看 | 国产精品久久久久久久久久妞妞 | 中文字幕一区二区三区精彩视频 |