成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

低成本LLM應用開發利器——開源FrugalGPT框架 原創

發布于 2024-5-6 08:40
瀏覽
0收藏

本文將詳細介紹一個LLM驅動型應用程序的成本節約架構FrugalGPT。

大型語言模型為計算機科學開辟了一個新的前沿;然而,它們(截至2024年)的運營成本遠遠高于計算機科學中的其他任何產品。對于希望將運營成本降至最低的公司來說,這是一個嚴重的問題。論文《FrugalGPT:如何在降低成本和提高性能的同時使用大型語言模型》(https://arxiv.org/abs/2305.05176)介紹了一種在保持質量的同時顯著降低運營成本的框架。

如何衡量LLM的成本

當前,已經存在多種方法可以確定LLM的運營成本(電力使用、計算成本等);但是,如果您使用第三方LLM(LLM-as-a-service),他們通常會根據您使用的詞元(token)向您收費。不同的供應商(OpenAI、Anthropic、Cohere等)使用不同的詞元計數方式,但為了簡單起見,我們將考慮基于LLM處理的詞元數量的成本。

這種類型的框架最重要的部分是不同模型的成本不同。這篇論文的作者們構造了一個方便的表格,表格數據可以很容易地展現成本間的差異,而且這些差異是非常顯著的。例如,在該表中,AI21的輸出詞元的成本比GPT-4的高出一個數量級!

低成本LLM應用開發利器——開源FrugalGPT框架-AI.x社區

本表數據來自上述FrugalGPT論文

作為成本優化的一部分,我們總是需要找到一種方法來優化答案質量,同時還要盡可能將成本降至最低。通常,成本較高的模型往往是性能較高的模型,能夠給出比成本較低的模型更高質量的答案。模型間的一般關系如下圖所示;其中,FrugalGPT的性能以紅色明顯展示在圖表的頂部位置。

低成本LLM應用開發利器——開源FrugalGPT框架-AI.x社區

注意,論文中的圖1c(即上圖)基于HEADLINES數據集創建,其根據LLM準確回答問題的頻率對各種LLM進行了比較。

級聯LLMS實現質量最優化

利用模型之間的巨大成本差異,研究人員推出的FrugalGPT系統能夠依賴于一系列的LLM實現給用戶提供答案。簡單地說,用戶查詢從最便宜的LLM開始;如果答案足夠好,則查詢結束(返回答案)。但是,如果答案不夠好,則將查詢傳遞給下一個最便宜的LLM。

研究人員使用了以下邏輯:如果一個價格較低的模型答錯了一個問題,那么價格較高的模型很可能會給出正確的答案。因此,假設價格越貴質量就越高,為了最大限度地降低成本,規定模型鏈的訂購順序是從最便宜到最昂貴。

低成本LLM應用開發利器——開源FrugalGPT框架-AI.x社區

論文中的圖2e展示了LLM級聯式示意圖。

很明顯,圖中展示的這種設置架構依賴于確定答案何時足夠好,何時不夠好。為了解決這個問題,作者創建了一個DistilBERT模型,該模型將接受問題和答案,然后為答案打分。由于DistilBERT模型比序列中的其他模型小得多(指數量級),因此與其他模型相比,運行它的成本幾乎可以忽略不計。

比查詢最佳LLM更好的平均質量

人們可能會自然而然地問:如果質量是最重要的,那么,為什么不查詢最好的LLM并研究如何降低運行最好LLM的成本呢?

當這篇論文發表時,GPT-4是作者們發現的最好的LLM;但是,GPT-4并不總是比FrugalGPT系統給出更好的答案!(眼尖的讀者會將其視為本文前面的成本相對于性能圖表的一部分)論文作者們推測,正如最有能力的人并不總是給出正確的答案一樣,最復雜的模型也不會。因此,通過使用DistilBERT對答案進行過濾,您可以刪除任何不符合標準的答案,并增加獲得優秀答案的幾率。

低成本LLM應用開發利器——開源FrugalGPT框架-AI.x社區

論文中的圖5a顯示了FrugalGPT優于GPT-4的情形。

因此,這個系統不僅可以降低成本,而且可以提高質量,而不僅僅是使用最好的LLM!

繼續研究節省成本問題

這篇論文的結果令人著迷。對我來說,這提出了一個問題,即我們如何在不必投資于進一步的模型優化的情況下進一步節省成本。

實現這樣的可能性的一種辦法是將所有模型答案緩存在向量數據庫中,然后在開始LLM級聯之前進行相似性搜索以確定緩存中的答案是否有效。這將通過用相對較低成本的查詢和相似性操作代替昂貴的LLM操作來顯著降低成本。

此外,這會讓你懷疑過時的模型是否仍然值得進行成本優化,就像你可以降低它們的每個詞元的成本一樣,它們仍然可以在LLM級聯上創造價值。同樣,這里的關鍵問題是,在什么時候通過在鏈上添加新的LLM來獲得遞減回報。

有待進一步研究的問題

隨著世界創造出更多的LLM,我們也越來越多地構建使用它們的系統,我們希望找到更加節約成本的方法來運行它們。本文討論的FrugalGPT論文為未來的開發人員創建了一個強大的框架,讓我非常想知道這個框架能走多遠。

在我看來,這個框架非常適合于基于不同用戶的答案統一型的一般查詢,例如導師型LLM。然而,對于答案因用戶而異的使用場景,例如充當客戶服務代理的LLM,評分系統必須知道LLM與誰交談。

總之,找到一個能為用戶特定交互而又節約成本的框架未來將是非常重要的。

主要參考文獻

[1] Chen, L.,等人,FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance (2023),arXiv。

譯者介紹

朱先忠,51CTO社區編輯,51CTO專家博客、講師,濰坊一所高校計算機教師,自由編程界老兵一枚。

原文標題:FrugalGPT and Reducing LLM Operating Costs,作者:Matthew Gunton

鏈接:https://towardsdatascience.com/frugalgpt-and-reducing-llm-operating-costs-ff1a6428bf96。

?著作權歸作者所有,如需轉載,請注明出處,否則將追究法律責任
已于2024-5-6 08:45:10修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: 91精品国产综合久久福利软件 | 国产激情 | 久久国产婷婷国产香蕉 | 国产精品国产精品国产专区不卡 | 日韩美女在线看免费观看 | 欧美一区免费 | 亚洲黄色片免费观看 | 久久这里只有精品首页 | 午夜视频在线免费观看 | 麻豆国产一区二区三区四区 | 亚洲444eee在线观看 | 超碰最新在线 | 精品一区av | 亚洲人人 | 天天干b | 久久免费高清 | 久久久成人免费一区二区 | 久久69精品久久久久久久电影好 | 午夜爽爽男女免费观看hd | 成人精品一区二区三区 | 国产精品久久久久久久久久免费看 | 欧美在线色视频 | 欧美亚洲国产精品 | 亚洲视频一区二区三区 | 影音先锋中文字幕在线观看 | 一级毛片大全免费播放 | 欧美 日韩 国产 成人 | 欧美色欧美亚洲另类七区 | 久久国产区 | 国产色视频网站 | 人人看人人干 | 欧美 日韩 亚洲91麻豆精品 | 免费人成在线观看网站 | 欧美一级在线 | 久久久蜜桃一区二区人 | 国产精品久久久久久久久免费樱桃 | 日韩中文字幕视频在线 | 久久久精品日本 | 国产精品久久久久久久久久免费看 | 亚洲福利一区二区 | 日韩欧美视频在线 |