吳恩達大佬關于智能體趨勢的最新觀點!
大語言模型(LLM)通常被優化用來回答人們的問題。但是現在有一個趨勢是模型也在被優化以適應智能體工作流程。這將大大提升智能體的性能!
在ChatGPT在問答方面取得突破性成功之后,大量的LLM開發都集中在提供良好的消費者體驗上。因此,LLM被調教來回答問題("為什么莎士比亞要寫《麥克白》?")或遵循人類提供的指令("解釋為什么莎士比亞寫了《麥克白》")。指令微調數據集中的很大一部分都在引導模型為人類編寫的問題和指令提供更有幫助的回應,這些問題和指令類似于人們可能會向面向消費者的LLM提出的問題,比如ChatGPT、Claude或Gemini的網頁界面所提供的服務。
但智能體的工作負載需要不同的行為。AI軟件可能會在迭代工作流程中使用模型來反思自己的輸出、使用工具、制定計劃,并在多智能體環境中協作,而不是直接為消費者生成回應。主要的模型開發商越來越多地優化模型,使其也能用于AI智能體?!?/p>
以工具使用(或函數調用)為例。如果有人詢問LLM當前的天氣,它無法從訓練數據中得出所需的信息。相反,它可能會生成一個API調用請求來獲取這些信息。即使在GPT-4原生支持函數調用之前,應用程序開發者就已經在使用LLM生成函數調用,但需要編寫更復雜的提示(比如ReAct提示的變體),告訴LLM有哪些函數可用,然后讓LLM生成一個字符串,由單獨的軟件程序解析(可能使用正則表達式)來確定是否要調用函數?!?/p>
在GPT-4和隨后許多其他模型原生支持函數調用之后,生成這樣的調用變得更加可靠。如今,LLM可以決定調用函數來搜索信息用于檢索增強生成(RAG)、執行代碼、發送電子郵件、在線下單等等?!?/p>
最近,Anthropic發布了其模型的一個版本,能夠使用計算機,通過鼠標點擊和按鍵操作計算機(通常是虛擬機)。我很享受使用這個演示。雖然其他團隊一直在提示LLM使用計算機來構建新一代RPA(機器人流程自動化)應用程序,但主要LLM提供商原生支持計算機使用是一個重大進步。這將幫助很多開發者!
隨著智能體工作流程的成熟,我觀察到以下趨勢:
- 首先,許多開發者正在提示LLM執行他們想要的智能體行為。這允許快速、豐富的探索!
- 在較少的情況下,從事高價值應用程序開發的開發者會對LLM進行微調,使其更可靠地執行特定的智能體功能。例如,即使許多LLM原生支持函數調用,它們也是通過接收可用函數的描述,然后(希望)生成輸出標記來請求正確的函數調用。對于生成正確函數調用很重要的關鍵任務應用,針對應用程序特定函數調用進行微調可以顯著提高可靠性。(但請避免過早優化!今天我仍然看到太多團隊在應該花更多時間在提示上之前就急于進行微調。)
- 最后,當某項功能(如工具使用或計算機使用)對許多開發者來說顯得有價值時,主要的LLM提供商正在將這些功能直接構建到他們的模型中。盡管OpenAI的o1-preview的高級推理有助于消費者,但我預計它在智能體推理和規劃方面會更加有用。
大多數LLM主要是為了提供良好的消費者體驗而優化回答問題的能力,我們已經能夠將它們"嫁接"到復雜的智能體工作流程中來構建有價值的應用程序。LLM為原生支持特定智能體操作而構建的趨勢將大大提升智能體的性能。我相信在這個方向上的重大智能體性能提升將在未來幾年內實現?!?/p>
本文轉載自 ??AI 思與行??,作者:cc
