幾乎零代碼!像搭樂高一樣做AI應用,LazyLLM真的有點東西??!
每次寫完一段得意的 Python 代碼,你是不是也幻想著在客戶或老板面前來一場完美的產品 demo?但現實往往是,要么在 Jupyter Notebook 里翻來覆去地展示 cell,要么在命令行里敲一堆指令,顯得有點……不夠高級,對吧?我最開始也這么想,于是腦子里冒出了一堆計劃:要不學學 Streamlit 或 Gradio,搭個漂亮的前端頁面?后端再用 FastAPI 撐起來?聽起來不錯,但一想到學習成本和開發時間……有沒有更輕松的辦法呢?
直到我昨天看到了 LazyLLM,我用不到 10 行 Python 代碼實現了一個帶有兩個并行檢索方法和一個重排方法的 RAG 系統。
我用 Qwen3 官方技術博客作為知識庫,然后開始詢問 RAG 系統有關 Qwen3 的知識,毫無疑問,系統全部答對了。
圖片
?
你認為構建一個像上面一樣帶有交互頁面的 RAG 系統 demo 要寫多少代碼? 如果用 LangChain 或者 LangGraph + Gradio 的話,我感覺至少需要 100 行代碼!
但是你看我的代碼:
圖片
帶上格式化自動換行和空行也就 63 行代碼!而且我還實現了兩個檢索器(retriever)和一個重排器(reranker)!
所有核心邏輯都位于 build_rag_pipeline 函數中,顧名思義,這是一個構造 RAG 工作流的函數。
我首先將與代碼文件同級的 docs 目錄下的所有文檔作為知識庫,并借助于阿里云提供的 text-embedding-v3 嵌入模型生成嵌入向量。
然后按照句子維度切分原始文檔。
圖片
現在我分 4 步開始構建檢索與生成流水線:
1. 設立兩個并行檢索器
2. 設立一個重排機制
3. 將檢索到的內容格式化
4. 利用阿里云提供的 qwen-max 大模型根據用戶查詢和檢索到的結果生成回復
圖片
最后僅需一行代碼啟動圖像交互頁面:
lazyllm.WebModule(rag_ppl, port=23456).start().wait()
在瀏覽器中輸入 http://127.0.0.1:23456/ 即可開啟會話。
我就問你簡單不簡單?
這一切得益于商湯 LazyAGI 團隊開發的開源低代碼開發框架:LazyLLM。專為構建和優化多智能體(Multi-Agent)大語言模型(LLM)應用而設計。它提供從應用搭建、數據準備、模型部署、微調到評測的一站式工具支持,幫助開發者以極低的成本快速構建 AI 應用,并持續迭代優化效果。
圖片
LazyLLM 的核心特性
- 模塊化與數據流管理:通過 Pipeline、Parallel 等預定義流程,輕松組織復雜應用邏輯。
- 多智能體支持:快速構建包含多個 AI 智能體的應用,適配大模型任務。
- 一鍵部署與跨平臺兼容性:支持從原型驗證到生產發布的完整流程,自動配置子模塊服務,兼容裸金屬服務器、開發機、Slurm 集群和公有云。
- 高效的模型微調:支持應用內模型微調,持續提升應用性能。
- 輕量級網關機制:簡化服務啟動和 URL 配置,提升開發效率。
感興趣的小伙伴可以去官方 GitHub 倉庫查看:https://github.com/LazyAGI/LazyLLM/tree/main