如何高效地為「推理模型」編寫最佳提示詞?萬字長文介紹 原創 精華
編者按: 如何有效地為推理模型編寫最佳提示詞?對于 OpenAI 推出 O1 和 O3-mini 等這些專為深度推理而設計的模型,傳統的提示詞工程技巧是否仍然適用?
我們今天為大家帶來的這篇文章,作者的觀點是:推理模型與傳統大語言模型在提示詞處理方式上有本質不同,需要采用更簡潔直接的提示詞策略來充分發揮其優勢。文章首先深入剖析了 OpenAI 的 O1/O3-mini 與 GPT-4o 三大模型的核心差異:
- O1/O3-mini 內置深度推理鏈,無需顯式引導即可自主分析,而 GPT-4o 依賴提示詞驅動分步思考;
- O1 系列在專業領域(如數學、法律)展現更強的多步驟推理與自檢能力,而 GPT-4o 更擅長快速響應通用任務;
- O1/O3-mini 需避免冗余指令,強調簡潔提問與結構化輸出,而 GPT-4o 需主動引導推理過程。
然后進一步提出優化推理模型性能的實踐方法,例如精簡提示詞、設定角色與格式指令,并以法律案例分析為例,演示如何通過精準設計提示詞生成嚴謹的法律論證。
作者 | Agustinmantaras
編譯 |?岳揚
OpenAI 的 O1 和 O3-mini 是兩款先進的推理模型,與基礎版 GPT-4(通常稱為 GPT-4o)在提示詞處理和答案生成方式上存在明顯差異。這些模型通過模擬人類的分析方法,在處理復雜問題時會投入更多時間進行“深度思考”。
01 重要提示
禁止嘗試提取模型的內部推理過程,此類行為違反使用準則。
本文將探討 O1 與 O3-mini 在輸入處理、推理能力和響應行為等方面與 GPT-4o 的區別,并闡述優化推理模型性能的提示詞工程最佳實踐。最后,我們將這些方法論應用于法律案例分析場景進行實操演示。
02 O1/O3-mini 與 GPT-4o 的差異分析
2.1 輸入結構與上下文處理
- 內置推理 vs 提示詞驅動推理:O1 系列模型內置思維鏈推理機制,能夠自主進行多步驟分析,無需通過提示詞引導其"逐步思考"。相比之下,GPT-4o 需要類似"Let’s think step by step"的指令來解決復雜問題,因其默認不會主動進行深度多步驟推理。使用 O1/O3 時,可直接提出問題,模型會自行展開深度分析。
- 外部信息依賴:GPT-4o 憑借多種多樣的知識庫和工具集成(如網頁瀏覽、插件、視覺分析)能處理多領域的任務。而 O1 系列模型在目標訓練領域外的知識較有限,例如 O1-preview 雖擅長推理任務,卻無法回答關于自身的問題。因此,在使用 O1/O3-mini 時,當任務涉及非常識性內容時,需在提示詞中提供必要的背景信息。GPT-4o 可能已掌握相關法律先例或冷門知識,而 O1 需要用戶直接提供相關文本或數據。
- 上下文長度:推理模型的上下文窗口非常大。O1 支持 128k 輸入 tokens,O3-mini 可達 200k 輸入 tokens(輸出上限為 100k),均超過 GPT-4o。這使得處理大量案例文件或數據集更高效。為便于工程設計,建議通過分段、設置列表或標題來清晰地組織長輸入內容,幫助模型定位信息。盡管兩者都能處理長提示詞,但 O1/O3 的容量更大,允許單次輸入更詳盡的上下文,這對進行復雜分析至關重要。
2.2 推理能力與邏輯演繹
- 推理深度:O1 和 O3-mini 專為系統性多步驟推理任務進行了優化,通過"延長思考時間"提升復雜任務的處理準確率。例如在 AIME 數學考試中,O1-preview 以 83% 的正確率遠超 GPT-4o 的 13%,展現其在專業領域的邏輯優勢。這些模型會自動執行推理鏈,還會自檢推理過程,而 GPT-4o 若無明確指令,其推理可能不夠徹底,導致在 O1 能處理的極端復雜場景中出現疏漏。
- 復雜任務與簡單任務的處理差異:O1 系列模型默認為深度推理模式,在需要多步驟分析的場景(如綜合論證/數學證明)中表現卓越。當任務涉及 5 步以上的推理時,O1-mini/O3 相較 GPT-4 的準確率提升超 16%。但這一特性也帶來了副作用:面對簡單查詢(如 3 步以內的推理問題),O1 的"過度思考"可能適得其反。研究表明,GPT-4o 處理簡單問答更直接高效,而 O1 可能生成不必要的分析 —— 其優勢在于復雜場景的精準解構,而非基礎問答的響應速度。
- 邏輯演繹風格:針對謎題/演繹推理類任務,GPT-4o 需通過提示詞引導分步推導(否則易直接跳轉到結論部分)。而 O1/O3 采用獨特的內部模擬機制:在響應過程中自動構建"思維草稿本",通過自我對話反復驗證邏輯一致性。這意味著用戶無需額外要求模型解釋推理過程 —— 在 O1/O3 給出答案之前會自動這樣做。使用 GPT-4o 時,可能需要添加"先列出假設再推導結論(first list the assumptions, then conclude)"等指令來確保邏輯嚴謹;但對 O1 而言,這類提示詞反而可能干擾其內置的推理優化流程。
2.3 響應特征與輸出優化
- 細節豐富度與翔實度:O1 與 O3-mini 因其具備深度推理機制,常為復雜問題生成結構化的、詳細的答案。例如,O1 可能會將一個數學問題的解決方案拆解為多步推導方案,或會為戰略規劃的每一部分闡明邏輯依據。相比之下,GPT-4o 則會默認輸出更簡潔的答案(如精煉的結論),需被直接要求才會展開詳細說明。從提示詞工程角度看,若需 O1 精簡回答,必須明確給出指令“請簡練回答”(如同對 GPT-4 的要求);反之,若希望 GPT-4o 在輸出中提供逐步解釋,則需主動添加說明。值得注意的是,即使未要求分步解釋,O1 在生成答案時可能已在內部完成多步推理。
- 準確性與自檢機制:推理模型具備動態自檢能力 —— OpenAI 指出,O1 在響應生成過程中能主動捕捉邏輯漏洞,顯著提升復雜場景的事實準確性。GPT-4o 雖整體可靠,但如果不加以引導,偶爾也會存在"自信錯誤"風險或產生幻覺。O1 通過內置驗證流程可減少錯誤輸出,而 GPT-4o 可能需要額外指令(如要求它批判或驗證其答案)才能達到同等置信度。這表明在使用 O1/O3 時,我們通常可以放心地通過簡單直接的提示詞來獲得復雜問題的正確答案。 而 GPT-4 則可能需要額外提供一些指令,比如“請確保你的回答與上述事實一致”。但需注意:兩者均非絕對可靠,關鍵的事實性輸出仍需人工核驗。
- 速度與成本的權衡:O1 系列模型以響應速度與更高成本換取深度推理能力 —— O1 Pro 處理長任務時甚至會顯示一個進度條。GPT-4o 在常規查詢中響應更快,而 O3-mini 作為輕量級推理模型,在降低延遲與 token 成本的同時,仍保持 STEM 領域的推理優勢(但在通用知識的覆蓋面或極其復雜的推理問題的處理可能無法與完整的 O1 或 GPT-4 相提并論。)。在進行提示詞工程以實現最佳響應表現時,我們需要權衡回答的深度與速度:O1 可能需要更多時間才能詳盡作答。如果對響應時間有要求,且任務復雜度不屬于最高的那類,那么選擇 O3-mini(或者 GPT-4o)可能會更合適。OpenAI建議:GPT-4o 仍可是多數任務場景的默認選擇,O1 主要用于策略制定/數學/編程等超高復雜度任務。 使用 O1 時需預判其響應延遲,必要時調整系統超時設置或向終端用戶說明等待時間。簡言之,根據任務復雜度選擇工具:簡單任務用 GPT-4o 提效,硬核問題用 O1 攻堅。
03 最大限度提升性能的提示詞工程技術
要充分發揮 O1 和 O3-mini 的性能,需要采用與 GPT-4o 略有不同的提示詞編寫方法。以下這些提示詞工程技巧和最佳實踐,可幫助您從這些推理模型中獲得最佳效果:
3.1 保持提示詞簡潔清晰
提問應簡明扼要。 由于 O1 和 O3 會進行密集的內部推理,因此它們對不含冗余文本的重點問題或指令反應最佳。OpenAI 和近期的相關研究都建議避免對這些模型使用過于復雜或引導性過強的提示詞。在實際操作中,應直述問題或任務,僅提供必要細節。無需添加"修飾性內容"或對問題進行多次改寫。例如,與其寫:“在這道具有挑戰性的謎題中,我希望你能仔細推理每個步驟,從而得出正確答案。讓我們一步一步來…”,不如直接問:“請解開下面這道謎題[包含謎題細節]。解釋你的推理過程。” 模型自然會在內部進行逐步思考并給出解釋。過多的指令反而會適得其反 —— 有研究發現添加過多提示詞上下文或示例會降低 O1 性能,會干擾其推理過程。
技巧:對于復雜任務,先嘗試零樣本提示(僅提供任務描述),僅在模型輸出不符合需求時才添加更多指令。通常對這些推理模型來說,最簡的提示詞反而效果最佳。
3.2 避免不必要的小樣本(Few-Shot)示例
針對 GPT-3/4 的傳統提示詞工程常使用小樣本示例或演示來引導模型。但對 O1/O3 而言,少即是多。 O1 系列模型經過專門訓練,不需要包含大量示例的提示詞。事實上,使用多個示例可能還會降低性能。對 O1-preview 和 O1-mini 的研究顯示,few-shot prompting(包含少量示例的提示詞)會持續降低其性能 —— 即便精心挑選的示例也常使其表現不如簡單提示詞。提供的示例似乎會分散或限制模型的內部推理。OpenAI 的官方指南與此一致:建議限制對推理模型的額外上下文或示例,以避免混淆其內部邏輯。
最佳實踐:使用零樣本提示詞,必要時最多添加一個示例。若包含示例,請確保高度相關且簡單明了。例如在法律分析的提示詞中,通常不應預設完整的案例分析示例,而是直接詢問新案例。唯一需要使用示范案例的情況是當任務格式非常具體且模型未遵循指令時 —— 此時可以展示一個簡短的目標格式示例。除此之外,請相信模型能通過直接的詢問解決問題。
3.3 利用系統/開發者指令設定角色和輸出格式
設置清晰的指令上下文有助于引導模型生成響應。通過 API(或在對話界面的系統消息(system message)中)簡潔定義模型角色或風格。例如系統消息(system message)可以是:“你是會逐步解釋具體解決方案的專家級科研人員”。O1 和 O3-mini 對此類角色指令反應良好,并會將其融入推理過程。但需記住,這些推理模型本身已擅長理解復雜任務,因此指令應聚焦于您期望的輸出形式而非思考方式。有效利用系統/開發者指令(system/developer instructions)的場景包括:
- 確定任務范圍或角色:例如"扮演法律分析師"或"以擅長向學生進行講解的數學老師身份解決問題"。這會影響語氣和回答的詳細程度。
- 指定輸出格式:若需要結構化形式(列表、表格、JSON等)的答案,請明確說明。O1(尤其是 O3-mini)支持結構化輸出模式并會遵循格式要求。例如:“將你的發現以要點列表的形式呈現”。由于其邏輯性較強,它們往往能準確遵循格式指令,這有助于保持響應的一致性。
- 設置界限:若需控制篇幅或聚焦方向,可加入"在詳細分析后提供簡要結論"或"僅使用給定信息不作外部假設"等指令。推理模型會遵守這些設置的界限,防止偏離主題或虛構事實。這一點很重要,因為 O1 可能會生成非常詳盡的分析內容 —— 雖然通常情況下這樣也很好,但若您明確只需要簡要內容時則需進行限制。
請確保每次編寫提示詞都包含關于語氣、角色、格式的指令。
3.4 通過指令控制內容詳細程度與分析深度
雖然 O1 和 O3-mini 會自然而然地進行深度推理,但您可控制其在輸出中展現多少推理過程。若需要詳細解釋,可在提示詞中要求(例如"在答案中展示你的逐步推理過程")。它們不需要被提醒進行推理,但需要被告知是否展示推理過程。反之,若發現模型回答過于冗長或過于專業,可指示它們回答更加簡潔或只聚焦某些方面。例如:“用 2-3 段話進行總結分析,僅包含最關鍵要點”。模型通常能遵守此類有關篇幅或聚焦方向的指令。需注意 O1 的默認行為是輸出全面詳盡的內容——優先保證正確性而非簡潔性,因此可能傾向于給出更多細節。直接要求輸出簡潔在多數情況下能覆蓋這種行為傾向。
對于 O3-mini,OpenAI 提供了額外的工具來管理分析深度:"推理強度(reasoning effort)"參數(低、中、高)。該設置可讓模型知道需要"思考"的強度。在使用 API 或支持該功能的系統中,可為復雜任務調高該參數(確保最大推理強度,但會增加回答長度和延遲),或為簡單任務調低(更快、更精簡的回答)。這實質上是控制輸出詳細程度和完整性的另一種方式。若無法直接使用該參數,可通過明確表示模仿低強度模式:例如在速度優先于絕對準確性的場景下要求"無需深入分析,快速給出答案 “。反之要模仿高強度模式,可以說"采取所有必要的步驟得出正確答案,即使解釋會較長”。 這些提示詞與模型內部設置的運作方式一致。
3.5 確保復雜任務的準確性
要在困難問題上獲得最準確的回答,需在提示詞中利用推理模型的優勢。 由于 O1 可以進行自我檢查,甚至發現、捕捉矛盾,因此我們可要求其使用該能力:例如"分析所有事實并雙重驗證結論的一致性"。通常情況下,推理模型會自動進行這些操作,但強化該指令可以提示模型要格外謹慎。有趣的是,由于 O1 已具備自檢能力,因此很少需要類似"驗證每個步驟"之類的指令(這對 GPT-4o 更有用)。應把重點放在提供完整且無歧義的信息上。若問題或任務存在潛在的模糊之處,應在提示詞中加以澄清或指示模型列出所有假設,防止模型錯誤猜測。
處理數據源時:若任務涉及分析給定的數據(如總結文檔或根據提供的數字計算答案),需確保數據呈現清晰。O1/O3 會嚴謹使用數據,為了清晰可見,我們可將數據分解為要點或表格。若需避免模型產生幻覺(如法律場景中不應編造法律條文),應明確聲明"回答僅基于提供的信息和常識;不可捏造任何細節"。推理模型通常善于遵循已知事實,此類指令能進一步減少幻覺風險。
驗證迭代:如果任務非常關鍵(如復雜的法律推理或高風險的工程計算),可采用集成模型響應的提示詞工程技術。這不是一個單一的提示詞而是一種策略:多次運行查詢(或要求模型考慮其他解決方案)后比較答案。O1 的隨機性使其可能每次探索不同推理路徑。通過比較輸出或在后續提示詞中要求模型"反思是否存在其他解讀方式",可提高結果可信度。雖然 GPT-4o 也適用于此方法,但當處理絕對準確性至關重要的任務時,這種方法對 O1 尤其有用 —— 本質上是利用模型自身的分析深度進行交叉驗證。
最后請記住,模型的選擇本身就是提示詞工程的一部分:若解決一個問題無需 O1 級別的推理能力,使用 GPT-4o 可能更高效且同樣準確。OpenAI 建議將 O1 留給困難任務,其余情況使用 GPT-4o。因此終極技巧是:先評估任務復雜度。若簡單任務,要么以最直接方式要求 O1 避免過度思考,要么切換至 GPT-4o。若復雜任務,則通過上述技術充分發揮 O1 的能力。
04 O1/O3 與 GPT-4o 處理邏輯推理的差異
這些推理模型處理邏輯問題的方式與 GPT-4o 存在本質區別,提示詞策略需相應調整:
- 處理歧義性:在邏輯推理任務中,若信息缺失或存在歧義,GPT-4o 可能會傾向于臨時做出假設(例如:“假設今天是晴天”),而 O1 更可能明確指出存在歧義之處或考慮多種可能性(因其在推理過程中會進行反思的特性)。要利用這一點,可直接在提示詞中要求 O1:“若存在不確定因素,請先說明你的假設再解答”。相比之下,GPT-4o 需要更多引導以防止進行臆測。總體而言,O1 的推理更謹慎徹底,GPT-4o 的推理更快速全面。因此,對 GPT-4o 需強調嚴謹性,而對 O1 只需提供信息并信任其自主推理能力。
- 分步輸出控制:若需要輸出邏輯步驟(例如用于教學或需要透明化展示模型思考流程的場景),必須顯式要求 GPT-4o “請展示推導過程”。O1 在復雜問題上默認會輸出結構化的推理過程,但簡單問題可能直接給出結論。若需 O1 展示邏輯鏈,直接給出指令即可(其子模型 O1-mini 也已被證明具備分步解析能力);若只需最終答案,可明確說明“直接給出最終答案”以跳過冗長的解釋。
- 邏輯嚴謹性與創造性的平衡:GPT-4(包括 4o)具有創造性優勢,可能在邏輯問題中進行類比或虛構場景(雖不總是符合需求)。O1 則專注嚴格的邏輯分析,優先保證正確性。如果您的提示詞涉及一個既需要推理又需要一點創造力的情景(例如解謎時需要串聯線索和敘述故事),可用 GPT-4 處理敘事部分,用 O1 進行推理。若僅用 O1/O3,需明確要求“提供創造性的觀點或更具想象力的回答”才能突破純邏輯框架。
總之:
- 對 O1/O3:將清晰定義的復雜推理任務交給它們,信任其內置邏輯處理機制,無需干預思考過程;
- 對 GPT-4o:沿用經典提示詞工程(問題拆解、要求逐步推理等)以激發同等水平的推理能力;
提示詞的風格一定要與模型相匹配 —— 讓 GPT-4o 感到困惑的問題可能正好適合 O1,反之亦然,因為他們的推理方法不同。
05 編寫高效提示詞:最佳實踐總結
為將上述內容整合為可操作的指南,以下提供一份使用 O1 或 O3-mini 模型的最佳實踐清單:
- 使用清晰具體的指令:明確說明你希望模型執行的任務或回答的問題。避免無關細節。對于復雜問題,通常直接提問就足夠了(無需復雜的角色扮演或多問題嵌套式提示詞)。
- 僅提供必要的上下文,省略冗余內容:包含模型所需的垂直領域信息(如案件事實、數學題數據等),因為模型可能缺乏最新的或小眾的知識。但不要添加無關文本或過多示例 —— 冗余內容會分散模型的注意力。
- 少用或不用小樣本示例:默認從零樣本提示詞開始。若模型誤解了任務或輸出格式,可添加一個簡單示例作為引導,但切勿為 O1/O3 添加長串示例鏈。這類模型不需要大量示例,這樣做反而可能降低其性能。
- 按需設定角色或語氣:通過系統消息(system message)或簡短前綴引導模型進入正確的思維模式(例如“你是一名高級法律助理,正在分析一個案件”)。這種引導尤其有助于調整語氣(正式/非正式)并確保使用領域相適應的語言。
- 明確指定輸出格式:若需要特定結構(列表、提綱、JSON 等),需明確告知模型。推理模型能夠可靠地遵循格式指令。例如:“請以有序步驟列表的形式回答”。
- 通過指令控制回答篇幅與細節:要求簡潔回答時直接說明(如“用一段話回答”或“僅需回答是/否,然后加一句話解釋即可”)。需要深度分析時要明確指示(如“提供詳細解釋”)。切勿假設模型默認知曉你對模型響應詳細程度的需求 —— 必須主動說明。
- 利用 O3-mini 的推理強度設置:通過 API 使用 O3-mini 時,根據任務選擇適當的推理強度(低/中/高)。高強度會給出更透徹的答案(適用于復雜法律推理或困難數學題),低強度提供更快速簡潔的回復(適合快速檢查或簡單查詢)。這是調節 O3-mini 提示詞行為的獨特方式。
- 避免冗余的“逐步思考”提示詞:不要為 O1/O3 添加“讓我們逐步分析”之類的短語或思維鏈指令,這些模型已內置此類推理機制。此類提示詞應保留給 GPT-4o 等需要顯式引導的模型使用,以節省計算資源。
- 測試與迭代優化:由于這些模型對提示詞的措辭較敏感,若未獲得理想回答,可嘗試重構問題或收緊指令。稍加改動(如直接提問與開放式提示詞的轉換)可能顯著提升效果。雖然 O1/O3 相比舊模型更易一次性處理復雜任務,但微調提示詞仍能有助于優化內容的清晰程度與輸出格式。
- 驗證重要輸出:對于重要應用場景,不要依賴單一的提問-回答循環。后續繼續使用提示詞要求模型驗證其結論(如“你對此結論有信心嗎?請解釋原因”),或再次詢問模型來查看是否得到一致的結果。一致且理由充分的答案能反映模型推理的可靠性。
通過遵循這些技巧,可充分發揮 O1 和 O3-mini 的潛力,并獲得高度優化的響應結果,從而發揮它們的優勢。
06 將上述最佳實踐應用于法律案例分析
最后,讓我們通過法律案例分析場景來具體呈現這些提示詞設計原則(如前文所述)。法律分析是復雜推理任務的典型代表,若精心設計提示詞,O1 模型能在此領域發揮卓越效能:
- 結構化輸入:首先清晰概述案件的關鍵事實及需要回答的法律問題。例如,以要點或簡短段落形式列出背景事實,隨后明確提出法律問題:“根據上述事實,依據美國法律判定甲方是否構成違約。”這種結構化的提示詞結構有助于模型解析場景,確保關鍵細節不被遺漏。
- 提供相關法律依據:若涉及特定法律條文、判例或相關定義,需將其內容或摘要納入提示詞。O1 不具備實時檢索功能,可能無法“記憶”起小眾法律條款 —— 若分析依賴某條法律文本,請直接提供。例如:“根據[法律條文 X],[具體內容]…請應用此法條分析本案。”此舉為模型提供了精準推理所需的工具。
- 通過系統消息(System Message)設置角色信息:使用系統指令如“你是一位以清晰、循序漸進的方式解釋法律在實際案例中應用的法律分析師”,可引導模型生成正式的、結構化的分析。雖然 O1 默認具備嚴謹的推理能力,但此類指令能使其輸出更貼合法律文書風格(如引用事實、應用法條、得出結論)。
- 無需使用多個示例示范:無需在提示詞中提供完整的案例分析示例(此操作可能適用于 GPT-4o)。O1 不需要示例即可完成分析 —— 它能從零開始構建推理流程。但可簡要說明期望的輸出格式:“請以 IRAC 格式回答(問題、規則、分析、結論)。”這種格式指令提供了一個模板,無需冗長的示例,O1 會根據模板組織輸出。
- 按需控制輸出長度:若需深度分析,O1 可生成涵蓋每個問題的多段落詳細推理。若需精簡版(如一份快速的咨詢意見),可指示模型:“將分析集中在核心問題相關的幾個關鍵段落上。”反之,若初始回答過于簡短和膚淺,可再次提示:“請詳細解釋法律如何應用于案件事實的。”O1 會很樂意詳細說明,因為它已經在內部已經完成了大量的推理工作。
- 確保準確性與邏輯一致性:法律分析要求準確地將規則應用于事實。盡管 O1 具有邏輯推理能力,但仍建議核查其引用的法律條文或具體主張(因為其訓練數據可能會缺失一些細節內容)。可在提示詞末尾添加:“仔細檢查所有案件事實是否都已處理,結論是否符合法律規定。” 因為 O1 有自我檢查的傾向,模型可能會主動指出是否有邏輯漏洞或隱含的假設 —— 這在注重細微差別的法律領域尤為重要。
- 使用后續追問機制:法律場景常需連續提問。例如,在 O1 給出分析后繼續追問:“若合同包含不同的終止條款,分析結果將如何變化?”O1 能有效處理此類迭代問題,延續推理鏈條。但需注意:若交互界面沒有超出當前對話上下文的長期記憶(且無檢索功能),每次追問需依賴已有信息或補充必要的新信息。需要保持對話聚焦于當前案件事實以避免混淆。
通過應用這些實踐方法,您的提示詞將引導 O1 或 O3-mini 進行高質量的法律分析。總之,要清晰地陳述案情、明確任務要求,讓推理模型承擔核心工作。最終結果應是結構嚴謹、逐步推導的法律論述,希望你能充分發揮 O1 的邏輯優勢,并通過高效的提示詞設計實現進一步優化。
OpenAI 的推理模型擅長復雜問題的解決,而法律分析正屬于需要深度邏輯的領域。O1 系列模型在研究、戰略制定等場景的深層推理能力(如 OpenAI 文檔所述)同樣適用于法律分析。理解其與 GPT-4o 的差異并調整提示詞策略,可最大限度發揮 O1 和 O3-mini 的潛力,即使在最具挑戰性的推理任務中也能獲得準確、結構合理的答案。通過精準控制模型的輸出風格與清晰程度,我們既能利用模型的智能,又能確保結果的專業性與實用性。
Thanks for reading!
Hope you have enjoyed and learned new things from this blog!
END
本期互動內容 ??
?文章建議避免在推理模型中使用 few-shot 示例,這一點是否讓你感到意外?你打算如何調整自己的提示詞策略?
原文鏈接:
