重磅!OpenAI官方發(fā)布了GPT的最佳實踐指示
官方發(fā)布了一個GPT提示詞的最佳實踐指南,主要包括六個方面的優(yōu)化策略,而且每個策略給出了相應(yīng)的案例
策略1:寫清楚說明
GPT 對您想要什么的猜測越少,您獲得它的可能性就越大。
比如:如果輸出太簡單,請要求專家級的寫作。
還列舉了一些具體的例子:
- 在您的查詢中包含詳細信息以獲得更相關(guān)的答案
- 要求模特采用角色
- 使用定界符清楚地指示輸入的不同部分
- 指定完成任務(wù)所需的步驟
- 提供例子
- 指定所需的輸出長度
策略2:提供參考文本
GPT 可以自信地編造假答案,尤其是當被問及深奧的話題或引用和 URL 時。就像一張筆記可以幫助學生在考試中取得更好的成績一樣,為 GPT 提供參考文本可以幫助以更少的捏造來回答。
- 指示模型使用參考文本回答
- 指示模型使用參考文本中的引用來回答
策略3:將復雜任務(wù)拆分為更簡單的子任務(wù)
正如在軟件工程中將復雜系統(tǒng)分解為一組模塊化組件是一種很好的做法一樣,提交給 GPT 的任務(wù)也是如此。
復雜的任務(wù)往往比簡單的任務(wù)有更高的錯誤率。
此外,復雜的任務(wù)通常可以重新定義為更簡單任務(wù)的工作流,其中早期任務(wù)的輸出用于構(gòu)建后續(xù)任務(wù)的輸入。
- 使用意圖分類來識別與用戶查詢最相關(guān)的指令
- 對于需要很長對話的對話應(yīng)用,總結(jié)或過濾之前的對話
- 分段總結(jié)長文檔并遞歸構(gòu)建完整摘要
策略4:給 GPT 時間“思考”
如果要求將 17 乘以 28,您可能不會立即知道,但隨著時間的推移仍然可以計算出來。同樣,GPT 在試圖立即回答而不是花時間找出答案時會犯更多的推理錯誤。在回答之前詢問一系列推理可以幫助 GPT 更可靠地推理出正確答案。
- 在匆忙下結(jié)論之前指示模型制定出自己的解決方案
- 使用內(nèi)心獨白或一系列查詢來隱藏模型的推理過程
- 詢問模型是否遺漏了之前傳遞的任何內(nèi)容
策略5:使用外部工具
通過為 GPT 提供其他工具的輸出來彌補它們的弱點。
例如,文本檢索系統(tǒng)可以將相關(guān)文檔告知 GPT。代碼執(zhí)行引擎可以幫助 GPT 進行數(shù)學運算和運行代碼。如果一項任務(wù)可以通過工具而不是 GPT 更可靠或更有效地完成,請卸載它以充分利用兩者。
使用基于嵌入的搜索來實現(xiàn)高效的知識檢索
使用代碼執(zhí)行來執(zhí)行更準確的計算或調(diào)用外部 API
策略6:系統(tǒng)地測試更改
如果可以衡量,提高績效會更容易。在某些情況下,對提示的修改會在一些孤立的示例上獲得更好的性能,但會導致在更具代表性的示例集上的整體性能變差。因此,要確保更改對性能產(chǎn)生積極影響,可能有必要定義一個綜合測試套件(也稱為“評估”)。