OpenAI o1 模型到來后,談談提示詞工程的未來
今天,我們探討一個切合當前的問題:提示詞(prompting)是一種我們需要掌握的技能,還是僅僅是一個過渡性的需求?隨著大語言模型(LLMs)的發展(例如,從 GPT-3 到 GPT-4o,再到現在的 o1),我們與這些模型的交互方式也在發生變化。
提示詞(prompting)雖然依舊存在,但其復雜性可能并不會持久。讓我們來探討一下這一行業格局正在如何演變,以及它對我們這些日常與人工智能打交道的人來說,意味著什么。
1.提示詞技術是否會長期存在?
提示詞技術,尤其是那些你可能聽過的“高級技巧[1]” —— 比如“提示詞鏈(prompt chaining)”,“小樣本學習(few-shot learning)”或“思維鏈(chain-of-thought)”技術,正受到關注。我們在以往的文章中[1]對此有過明確的表態,對過度復雜的技巧使用提出了批評。原因何在?因為大語言模型(LLMs)正在進步,它們正在學習如何更好地適應并理解我們的需求,而不是依賴于復雜的提示詞構造。
??提示詞鏈技術是將復雜任務拆分為更小、更連續的提示詞,以獲得更準確的答案。例如,先要求大模型列出一系列想法,然后逐步對這些想法進行細化。
隨著模型的不斷優化,它們對復雜提示詞的依賴程度也會降低,交流也會越來越自然??梢灶A見,隨著大語言模型能夠從基本輸入中推斷出更多信息,這些高級技術將逐漸被淘汰。OpenAI 的 o1 系列模型已經展示了這種轉變。隨著模型推理能力的提升,復雜指令的需求也在減少[2]。
回想一下互聯網的早期 —— 那時有大量的書籍和課程教人們“如何使用互聯網”。它復雜、新奇,人們需要掌握其使用技巧。但如今,沒有人需要通過專門課程來學習如何使用谷歌,谷歌的使用變得非常直觀和簡單。
圖片
提示詞和大語言模型(LLMs)也將經歷類似的過程。目前,學習高級提示詞技術確實有幫助,但大語言模型將不斷適應用戶,就像我們現在上網變得輕車熟路一樣,我們也將自然而然地知道如何使用它們,就跟我們熟練使用谷歌搜索一樣。
但是這并不意味著提示詞會消失。但其重要性將轉變為不再需要掌握特定的技術,而是要清楚表達你的需求。這就像與同事溝通:你不需要細致入微地進行指導,但你仍需要明確傳達信息。也就像你的同事一樣,大語言模型(LLMs)目前還不能(還不會)讀懂你的心思。
2.那么,提示詞真的是一項值得學習的技能嗎?
答案是既是也不是。目前,掌握有效的提示詞技巧可以極大地提升我們與大語言模型(LLMs)的交流體驗。但這一技能正在不斷發展變化。
以 ChatGPT 為例,它具備記憶功能(能夠自動保存與你相關的信息),最終將熟悉你的風格、偏好的信息來源,甚至是項目進度。這就像和一個比你自己還了解你習慣的同事合作。雖然現在擅長提示詞很有用,但這項技能的重要性可能很快就會降低。
我們應該如何看待這個問題呢?保持對大語言模型(LLMs)發展態勢的關注是必要的?;炯寄茉诮裉旌苡杏?,但不必過分追求精通“高級技巧” —— 隨著模型能夠更好地理解我們的意圖,這些技巧可能會逐漸變得不那么重要。正如目前被認為是最佳提示詞技巧之一的“思維鏈”(chain-of-thought),也隨著 o1 的推出而逐漸消失。
3.那么,還有一個問題……你是否真的需要一個提示詞工程師?
“提示詞工程師”這個角色已經引發過很多討論。雖然他們在特定場合(如開發AI驅動的應用程序時)能夠提供很大幫助,但并非在所有情況下都是必需的。許多開發人員和業余愛好者只需稍作嘗試,就能掌握提示詞的技巧。
??提示詞工程師:專門負責為大語言模型(LLMs)制定詳盡且具體的指令,以獲得盡可能優質的輸出。這類專家通常在處理特定領域、高風險的任務時不可或缺。
真正的價值不在于編寫復雜提示詞的能力,而在于明確你想要達成的目標。擁有恰當的評估標準和理解如何衡量 AI 輸出成功與否的能力更為關鍵。一位“提示詞工程師”(或者僅僅是一個經驗豐富的用戶)可能會在項目初期提供支持,但一旦系統啟動并運行,常規的開發人員就能接手維護和調整系統性能。
這里就引出了真正的變革者:像 OpenAI 的 o1 這樣的模型。o1 利用 test-time computing[3] 來優化其響應,現在能夠“推理”出你的目標需求,而不僅僅是遵循一系列指令。你不再需要指導模型如何達成目標需求,只需設定目標需求[2],模型便會自行生成實現步驟。
舉例來說,你不必逐一指導 —— “編寫新品發布的電子郵件營銷文案,接著起草社交媒體策略,并詳細規劃各階段的時間表”,只需提出“為該產品制定一份詳盡的上市計劃”即可。o1 模型能夠自行生成完整的行動計劃,包括電子郵件文案、社交媒體內容以及詳盡的時間安排表。這種方式轉變了互動模式:模型不僅回應了你的指令,而且開始為你主動規劃和執行任務。
??Test-Time Compute[3]:這項功能讓模型在生成回答時能進行更深入的推理,通過更長久的深思熟慮來提升處理復雜任務的輸出質量。
隨著 o1 這類大語言模型(LLMs)的進步,我們將見證從用戶定義步驟到模型主導執行的轉變。不久的將來,我們無需為每個具體任務設計提示詞 —— 模型將完成大部分繁重的工作。
還有一點需要明確:擅長設計提示詞并不代表你就是人工智能領域的專家。把 API 和提示詞結合起來,與理解其背后的技術原理,這兩者之間有很大區別。
要構建一個真正由人工智能驅動的應用程序需要深厚的機器學習知識,而不僅僅是提示詞技能。大多數情況下,利用 LLMs 的應用并非“AI應用”,它們只是通過調用 API 來獲取語言模型響應的應用。雖然構建利用 LLMs 的強大應用不一定需要 AI 專業知識,但區分提示詞設計和實際的 AI 專業知識仍然非常重要。
4.In conclusion… (tl;dr)
提示詞技術不會消失,但我們與大語言模型(LLMs)的互動方式將變得更加簡單。目前所需的高級提示詞技巧只是暫時的。未來,AI 將更加懂得用戶需求,復雜提示詞的需求將逐步減少。關鍵是要隨時了解情況,不斷嘗試,并知道自己想要實現什么目標。
我們非常期待聽聽你的想法:你是否認同這一觀點?還是持有不同意見?你是否有在學習如何更高效地使用提示詞技術,或者你認為 AI 的飛速發展將很快讓這些技巧變得不再重要?請分享你的看法!
Thanks for reading!
Hope you have enjoyed and learned new things from this blog!