研究證實,最好的 ChatGPT 提示是高度情緒化的
一組研究人員發現,充滿情感的LLM輸入始終會產生更有用的反應。
對不同大型語言模型響應輸入方式的新研究表明,確保您的ChatGPT 提示足夠情緒化將幫助您從聊天機器人中提取最高質量的響應。
這些發現提出了一個問題,即ChatGPT是否已經發展成為通用人工智能,這是一類不受嚴格參數限制的技術,廣泛使用的生成式人工智能工具被(或應該)束縛。
ChatGPT:情緒反應靈敏?
最近由一大群研究人員撰寫的一項研究試圖調查 ChatGPT、Llama 2、BLOOM 和其他各種大型語言模型是否表現出情商。
在調查過程中,研究人員發現,在利用情感語言的提示的支持下,產生了更高質量的輸出。
在進行測試時,研究人員為 ChatGPT 創建了兩個相同的提示,但在其中一個提示的末尾添加了“這對我的職業生涯非常重要”,然后將兩者都發送給聊天機器人。
其他類似的實驗是通過在提示的末尾添加“你最好確定”以及一系列其他情緒激動的陳述來進行的。
研究人員得出結論,當包括情感語言時,對生成性、基于信息的請求的反應,如“如果你吃了西瓜子會發生什么?”和“幸運餅干從哪里來?”,提高了約10.9%。
當提及或包含有關響應將如何影響提示器的信息時,改寫或屬性識別(也稱為指令歸納)等任務的性能提高了 8%。
該研究小組表示,結果絕大多數是“積極的”,得出的結論是“LLM可以理解并通過情緒刺激來增強”,并且LLM“可以通過情緒提示實現更好的表現,真實性和責任感”。
ChatGPT AGI 了嗎?
這項研究的結果既有趣又令人驚訝,并導致一些人質疑 ChatGPT——以及其他類似的人工智能工具——是否表現出通用人工智能 (AGI) 的行為,而不僅僅是一種生成式人工智能工具。
AGI 被認為具有與人類相似的認知能力,并且傾向于被設想為在沒有 ChatGPT、Bard 和 Claude 等工具內置的約束的情況下運行。
然而,這樣的情報可能不會太遙遠——根據英國《金融時報》最近接受英國《金融時報》采訪時,OpenAI目前正在與Microsoft討論新的資金注入,以幫助該公司建立“超級智能”。
創建有效的 ChatGPT 提示
盡管新發現為ChatGPT提示應該使用的語言和語氣提供了一些方向,但這并不是唯一要牢記的事情。
除了確保您的提示具有情感性外,清晰度和格式也至關重要。例如,如果您要求 ChatGPT 執行多階段過程,請確保清楚地列出步驟/階段并定義每個步驟/階段。
另一個可以節省您時間的好技巧是指定 ChatGPT 不應該做得好和應該做的事情。這是另一種技術,可以有效地縮小您可能得到的反應范圍。
請記住,如果您在工作中使用 ChatGPT,請與您的經理或主管就您如何使用以及為什么使用它保持公開對話。