大模型靠“深呼吸”數學再漲8分!谷歌DeepMind發現AI自己設計提示詞效果勝人類
提示詞中加上“深呼吸”,AI大模型數學成績就能再漲8.4分!
谷歌DeepMind團隊最新發現,用這個新“咒語”(Take a deep breath)結合大家已經熟悉的“一步一步地想”(Let’s think step by step),大模型在GSM8K數據集上的成績就從71.8提高到80.2分。
而且這個最有效的提示詞,是AI自己找出來的。
有網友開玩笑說,深呼吸以后,散熱風扇就轉速就提高了。
也有人表示,剛高薪入職的提示工程師們也應該深呼吸,工作可能干不久了
相關論文《大語言模型是優化器》,再次引起轟動。
具體來說,大模型自己設計的提示詞在Big-Bench Hard數據集上最高提升50%。
也有人的關注點在“不同模型的最佳提示詞不一樣”。
并且不止提示詞設計這一個任務,在論文中還測試了大模型在線性回歸和旅行商問題這些經典優化任務上的能力。
模型不同,最佳提示詞也不同
優化問題無處不在,基于導數和梯度的算法是強大的工具,但現實應用中也經常遇到梯度不適用的情況。
為解決這個問題,團隊開發了新方法OPRO,也就是通過提示詞優化(Optimization by PROmpting)。
不是形式化定義優化問題然后用程序求解,而是用自然語言描述優化問題,并要求大模型生成新的解決方案。
一圖流總結,就是對大模型的一種遞歸調用。
每一步優化中,以之前生成的解決方案和評分作為輸入,大模型生成新的方案并評分,再將其添加到提示詞中,供下一步優化使用。
論文主要使用谷歌的PaLM 2和Bard中的text-bison版本作為評測模型。
再加上GPT-3.5和GPT-4,共4種模型作為優化器。
結果表明,不光不同模型設計出的提示詞風格不同,適用的提示詞風格也不同。
此前在GPT系列上的AI設計出的最優提示詞是“Let’s work this out in a step by step way to be sure we have the right answer.”
這個提示詞使用APE方法設計,論文發表在ICLR 2023上,在GPT-3(text-davinci-002)上超過人類設計的版本“Let’s think step by step”。
但這次在谷歌系PaLM 2和Bard上,APE版本作為基線就還不如人類版本。
OPRO方法設計出來的新提示詞中,“深呼吸”和“拆解這個問題”對PaLM來說效果最好。
對text-bison版的Bard大模型來說,則更傾向于詳細的提示詞。
另外論文還展示了大模型在數學優化器上的潛力。
線性回歸作為連續優化問題的示例。
旅行商問題作為離散優化問題的示例。
僅僅通過提示,大模型就能找到不錯的解決方案,有時甚至匹敵或超過手動設計的啟發式算法。
但團隊也認為大模型還無法替代傳統基于梯度的優化算法,當問題規模較大(如節點數量較多的旅行商問題)時,OPRO方法表現就不好。
對于未來改進方向,團隊提出當前大模型還無法有效利錯誤案例,僅提供錯誤案例無法讓大模型捕捉捕捉到錯誤的原因。
一個有前景的方向是結合關于錯誤案例的更豐富的反饋,并總結優化軌跡中高質量和低質量生成提示的關鍵特征差異。
這些信息可能幫助優化器模型更高效地改進過去生成的提示,并可能進一步減少提示優化所需的樣本數量。
論文放出大量最優提示詞
論文來自谷歌與DeepMind合并后的部門,但作者以原谷歌大腦團隊為主,包括Quoc Le、周登勇。
共同一作為康奈爾大學博士畢業的復旦校友Chengrun Yang,和UC伯克利博士畢業的上交大校友陳昕昀。
團隊還在論文中給出了大量實驗中得到的最優提示詞,包括電影推薦、惡搞電影名字等實用場景,有需要的小伙伴可自取。
論文地址:https://arxiv.org/abs/2309.03409