上下文工程的崛起:提示工程已是過去式
我們已經看到,大模型應用已經從簡單的問答向復雜的智能體系統轉變。與之匹配的,技術焦點也正從早期的提示工程(Prompt Engineering),即如何巧妙地向模型提問,迅速轉向一個更進階的領域——上下文工程(Context Engineering)。
在模型能力日益強大的今天,決定應用成敗的關鍵,已不再是“如何問”,而是“為模型提供什么樣的信息”。這正是上下文工程的核心。
大多數情況下,當一個智能體表現不可靠時,其根本原因并非模型本身的能力不足,而在于我們未能向其傳遞完成任務所需的上下文、指令和工具。因此,上下文工程正迅速成為 AI 工程師所能掌握的最關鍵技能。
近日,Langchain創始人也撰文《The rise of "context engineering"》探討了這一問題,借此機會讓我們更深入了解“上下文工程”。
什么是上下文工程?
上下文工程,其核心是構建一個動態系統,旨在以正確的格式,為大模型提供恰當的信息與工具,從而使其能夠可靠地完成指定任務。
這一定義綜合了 Tobi Lutke、Ankur Goyal 及 Walden Yan 等行業先行者的洞見。我們可以從以下幾個維度來深入理解:
- 它是一個系統工程:復雜的智能體需要從多個來源獲取上下文,包括開發者預設、用戶輸入、歷史交互、工具調用結果以及外部數據。將這些信息源有機地整合起來,本身就是一個復雜的系統工程。
- 它是動態變化的:上下文的許多組成部分是實時生成的。因此,最終輸入給模型的提示(Prompt)也必須是動態構建的,而非靜態的模板。
- 它要求信息精準:智能體系統失敗的常見原因之一是上下文信息的缺失。LLM 無法“讀心”,我們必須為其提供完成任務所需的全部信息。所謂“垃圾進,垃圾出”,信息質量直接決定輸出質量。
- 它要求工具適用:很多任務無法僅靠初始信息完成。此時,為 LLM 配備合適的工具就變得至關重要。這些工具可以用于信息檢索、執行動作或與其他系統交互。提供正確的工具與提供正確的信息同等重要。
- 它強調格式規范:正如人際溝通,我們與 LLM 的“溝通方式”同樣關鍵。一個簡潔明了的錯誤信息遠勝于一個龐雜的 JSON 數據塊。工具的參數設計、數據的呈現格式,都會顯著影響 LLM 的理解和使用效率。
- 它關注任務的可行性:在設計系統時,我們應反復自問:“在當前提供的上下文和工具下,LLM 是否真的有可能完成任務?” 這個問題幫助我們將失敗歸因于上下文不足,還是模型本身的執行失誤,從而采取不同的優化策略。
為何上下文工程如此重要?
智能體系統的失誤,本質上是 LLM 的失誤。從第一性原理分析,LLM 的失敗主要源于兩個方面:
- 底層模型能力不足,無法正確推理或執行。
- 模型未能獲得做出正確判斷所需的上下文。
隨著模型能力的飛速發展,第二點正成為更普遍的瓶頸。上下文供給不足主要體現在:
- 信息缺失:模型完成任務所依賴的關鍵信息未被提供。
- 格式混亂:信息雖然存在,但其組織和呈現方式不佳,阻礙了模型的有效理解。
上下文工程與提示詞工程的區別
為何行業焦點正從“提示詞工程”轉向“上下文工程”?早期,開發者更專注于通過巧妙的措辭來“誘導”模型給出更好的答案。但隨著應用復雜度的提升,一個共識逐漸形成:向 AI 提供完整、結構化的上下文,其重要性遠超任何“魔法般”的措辭。
我們可以認為,提示詞工程是上下文工程的一個子集。即便擁有了全部所需信息,如何將這些動態數據高效地組織、格式化并呈現在最終的提示中,依然至關重要。兩者的區別在于,上下文工程關注的是整個動態數據流的構建與管理,而不僅僅是最終提示的靜態文本優化。
小結
大模型應用技術不斷深入,我們正從“提示詞的藝術”邁向“上下文的科學”。
最近一些爆品如Cursor,Manus等產品都表明,一個卓越的大模型產品,其背后必然是一個精心設計的上下文工程系統。
未來的核心競爭力,將不再僅僅是精妙的提示詞,更是高質量、高效率的上下文。
通過精心組織,為模型提供事實依據、注入持久記憶、并擴展其行動能力,我們就有可能釋放大模型的潛力,構建出新的有價值AI產品。
參考:???https://blog.langchain.com/the-rise-of-context-engineering/??
本文轉載自???AI工程化???,作者:ully
