對(duì) AI 產(chǎn)品定價(jià)模式的新思考:基于人數(shù) or 工作量? 原創(chuàng) 精華
編者按:傳統(tǒng)的基于用戶數(shù)量的定價(jià)模式是否還適用于AI產(chǎn)品?我們今天為大家?guī)淼倪@篇文章中,作者提出:AI 產(chǎn)品應(yīng)該采用基于工作量的定價(jià)模式,而非傳統(tǒng)的基于用戶數(shù)量的定價(jià)方式。
傳統(tǒng)的基于用戶數(shù)量的定價(jià)模式在 AI 產(chǎn)品中往往會(huì)導(dǎo)致資源浪費(fèi)和成本分配不均。一些員工可能每天都在大量使用 AI 工具,而另一些人可能幾乎不碰。這不僅會(huì)增加企業(yè)的不必要開支,還可能阻礙 AI 工具在整個(gè)組織中的廣泛應(yīng)用和創(chuàng)新。
作者分享了他們?cè)?AI 產(chǎn)品定價(jià)方面的思考和初步嘗試。文章探討了基于工作量定價(jià)的優(yōu)勢(shì),同時(shí)也坦誠(chéng)地指出了這種模式可能面臨的挑戰(zhàn),如如何界定"已完成的工作",以及企業(yè)預(yù)算管理的復(fù)雜性等。如果你正在思考 AI 產(chǎn)品的定價(jià)問題,期望這篇文章會(huì)給你帶來新的啟發(fā)。
作者 | Vikram Sreekanti & Joseph E. Gonzalez
編譯 | 岳揚(yáng)
給產(chǎn)品定價(jià)歷來是個(gè)難題,我們并不自詡為定價(jià)專家。目前,我們還在初步嘗試為 RunLLM(??runllm.com??) 找到一個(gè)合適的定價(jià)模式,這個(gè)問題最近一直縈繞在我們的心頭。我們覺得,將我們隨著與客戶互動(dòng)的深入而逐漸成熟的思考過程分享出來,以及探討人工智能產(chǎn)品的特性如何影響定價(jià)規(guī)則,或許對(duì)大家有所啟發(fā)。
簡(jiǎn)單來說,我們得到的啟示是,基于用戶人數(shù)的定價(jià)方式并不理想,人工智能工具更應(yīng)按照完成的工作量來設(shè)定價(jià)格。 這個(gè)觀點(diǎn)或許對(duì)某些人來說是顯而易見的真理,對(duì)另一些人來說則是激進(jìn)的新觀點(diǎn),但這絕非什么新奇的想法,甚至算不上是一個(gè)新概念。
Source: DALL-E 3.
從以往來看,大多數(shù)辦公效率工具的價(jià)值在于能夠與整個(gè)公司緊密結(jié)合。像 Slack、Linear、Notion 這樣的團(tuán)隊(duì)協(xié)作工具,團(tuán)隊(duì)規(guī)模越大,其使用頻率就越高。雖然每個(gè)新成員帶來的使用頻率增長(zhǎng)可能不是絕對(duì)線性的,但團(tuán)隊(duì)規(guī)模和產(chǎn)品使用量之間確實(shí)存在正相關(guān)。即便沒有創(chuàng)建更多的新任務(wù)或撰寫更多的文檔,讓每個(gè)團(tuán)隊(duì)成員都能使用這些工具,其益處也是顯而易見的。
然而,基于人工智能的效率工具打破了這一傳統(tǒng)模式。以電子郵件為例,我在 RunLLM 擔(dān)任 CEO 和在加州大學(xué)伯克利分校擔(dān)任教授時(shí),每天收到的郵件量與 RunLLM 的工程師或普通研究生收到的郵件量有著天壤之別。因此,如果一款基于人工智能的郵件回復(fù)工具按照人數(shù)來收費(fèi),那就顯得不太合理了 —— 畢竟,每天撰寫 100 封郵件所需完成的工作量遠(yuǎn)遠(yuǎn)超過了僅寫 2 封郵件。
這正是 Notion AI 等工具讓人感到不平的地方。當(dāng)團(tuán)隊(duì)中某些成員因工作需求而需要投入大量時(shí)間寫作時(shí),為每個(gè)人每月支付 10 美元開通 Notion AI 就顯得有些不合理。(再加上我們還覺得 Notion AI 的實(shí)際效用并不大…)Notion AI 與 Notion 的常規(guī)定價(jià)模式需要有所區(qū)別,因?yàn)樵诤笳哌@種情況下,即便用戶不常寫作,能接觸到公司文檔本身就具有價(jià)值。 而人工智能的價(jià)值在于其提供的自動(dòng)化服務(wù)(它所完成的工作)。因此,我們更希望按照這一服務(wù)量來付費(fèi)。
這就是基于工作量的定價(jià)原則,我們發(fā)現(xiàn)越來越多的 AI 產(chǎn)品開始采用這種定價(jià)模式。RunLLM的計(jì)費(fèi)方式是依據(jù)所回答問題的數(shù)量來確定的。基于 AI 的 SDRs(Sales Development Representatives) 則是根據(jù)安排的會(huì)議數(shù)量來收費(fèi)。而模型提供商,自然是根據(jù)所生成的 token 數(shù)量來設(shè)定價(jià)格的。
01 基于服務(wù)使用量的定價(jià)模式并非新事物
我們所說的基于工作量的定價(jià),實(shí)際上就是一種基于服務(wù)使用量的定價(jià)模式,這種模式自云計(jì)算軟件興起之初便已存在(其歷史甚至可以追溯至公元前 3000 年,美索不達(dá)米亞地區(qū)對(duì)灌溉用水的計(jì)價(jià))。 如今,從AWS、GCP等云服務(wù)提供商那里使用的絕大多數(shù)服務(wù),其計(jì)費(fèi)都是基于租用的計(jì)算資源時(shí)間(以秒或小時(shí)計(jì))和數(shù)據(jù)存儲(chǔ)量。隨著 serverless 架構(gòu)的流行,計(jì)費(fèi)模式變得更加精細(xì):用戶只需為自己實(shí)際使用的資源付費(fèi),而不是為租用的資源付費(fèi)。
然而,企業(yè)歷來對(duì)于完全基于服務(wù)使用量的定價(jià)模式持保留態(tài)度,因?yàn)檫@種模式下的費(fèi)用難以預(yù)測(cè),預(yù)算編制也相對(duì)困難。實(shí)際上,當(dāng)云函數(shù)(cloud functions)開始流行時(shí),一家主流云服務(wù)提供商透露,他們面臨的最大挑戰(zhàn)是企業(yè)客戶們尚未準(zhǔn)備好接受云函數(shù)的固定使用量合同 —— 因?yàn)樗麄儾捎玫氖羌兇獾幕诜?wù)量的計(jì)費(fèi)模式,企業(yè)客戶對(duì)此類基礎(chǔ)設(shè)施的采用意愿不高。
在基礎(chǔ)設(shè)施層面實(shí)施基于服務(wù)使用量的定價(jià)模式,歷來也很難實(shí)施。雖然計(jì)算某個(gè)函數(shù)運(yùn)行時(shí)間相對(duì)簡(jiǎn)單,但現(xiàn)在需要在成千上萬的服務(wù)器和數(shù)百個(gè)數(shù)據(jù)中心中可靠地跟蹤這些數(shù)據(jù)(即使在發(fā)生故障的情況下)。此外,服務(wù)的啟動(dòng)和關(guān)閉也產(chǎn)生了成本,而且隨著在不同工作負(fù)載之間頻繁切換,這些成本的產(chǎn)生頻率也會(huì)更高。因此,直到最近,基于服務(wù)使用量的定價(jià)模式主要還是應(yīng)用于基礎(chǔ)設(shè)施層面(這一領(lǐng)域的團(tuán)隊(duì)擁有解決相關(guān)問題的專業(yè)能力),而其他領(lǐng)域則普遍采用了基于使用人數(shù)的定價(jià)模式。
02 基于服務(wù)使用量的定價(jià)模式更適合 AI 產(chǎn)品
AI 產(chǎn)品理應(yīng)得到特殊對(duì)待。我們?cè)谏衔淖隽撕?jiǎn)要總結(jié),解釋了為何基于工作量的定價(jià)模式對(duì) AI 產(chǎn)品而言具有重要價(jià)值,但這一話題值得深入挖掘。
精心打造的 AI 產(chǎn)品能夠大幅提升企業(yè)生產(chǎn)力,以低于傳統(tǒng)方式的時(shí)間消耗和成本產(chǎn)出高質(zhì)量、堪比人類的工作成果。這意味著,那些人們通常不愿意做的枯燥任務(wù) —— 例如,回復(fù)成百上千次相同的客戶咨詢、處理重復(fù)的電子郵件、挖掘潛在的銷售線索 —— 將交由人工智能來完成。自動(dòng)化處理越多這樣的繁瑣任務(wù),人們就能有更多時(shí)間投入到更有價(jià)值的工作中。
這一變化帶來了兩個(gè)重要成果。首先,企業(yè)的付費(fèi)模式將從按人頭計(jì)費(fèi)轉(zhuǎn)變?yōu)榘磳?shí)際完成的工作量計(jì)費(fèi)。團(tuán)隊(duì)成員能夠了解 AI SDR 的工作情況,提高了透明度,但并不會(huì)改變產(chǎn)品的產(chǎn)出。其次,在定價(jià)模式中,可以實(shí)際考慮到工作的完成質(zhì)量。就像人類一樣,AI Agents 有時(shí)也會(huì)犯錯(cuò),這一點(diǎn)可以在評(píng)估產(chǎn)品增加的價(jià)值時(shí)予以考慮。
舉個(gè)我們很熟悉的例子,客戶支持團(tuán)隊(duì)通常根據(jù)他們處理的工單數(shù)量和處理速度來衡量其工作效率;RunLLM 能夠以更低的成本和更高的準(zhǔn)確性完成這項(xiàng)工作,所以我們根據(jù)回答的問題數(shù)量來向客戶收費(fèi)。但如果收到一個(gè)不相關(guān)的問題,比如“誰贏得了拿破侖戰(zhàn)爭(zhēng)?”或者如果找不到數(shù)據(jù)來回答一個(gè)相關(guān)的問題,我們就沒有為客戶創(chuàng)造任何價(jià)值,所以我們不會(huì)向客戶收費(fèi)。
隨著討論的深入,這種做法聽起來越來越像是咨詢公司的工作方式。一般來說,這是件好事。與傳統(tǒng)軟件不同,AI 能夠生成連貫的端到端工作(end-to-end work),這正是咨詢公司期望能夠提供的服務(wù)。如果你相信這股 AI Agents 熱潮,那么你可能會(huì)認(rèn)為這意味著你將擁有一支 AI Agents 團(tuán)隊(duì),為你處理所有繁瑣的工作。是否每個(gè)領(lǐng)域都會(huì)出現(xiàn)這種情況還有待觀察,但對(duì)于那些 AI 已經(jīng)展現(xiàn)出良好工作能力的領(lǐng)域 —— 如客戶支持、銷售、文檔編寫等,這已經(jīng)成為現(xiàn)實(shí)。
03 按工作量定價(jià)面臨的挑戰(zhàn)
當(dāng)然,切換到基于工作量的定價(jià)模式并不是萬能的解決方案。根據(jù)產(chǎn)品完成的工作量向客戶收費(fèi)會(huì)引發(fā)一些邊緣情況,這些問題是直接采用基于人數(shù)的定價(jià)模式可以避免的。
最明顯的一個(gè)問題在于如何界定“已完成的工作”。 以基于 AI 的 SDR 服務(wù)為例,你是根據(jù)預(yù)訂的會(huì)議、實(shí)際舉辦的會(huì)議還是轉(zhuǎn)換成功的會(huì)議來收費(fèi)?有些咨詢公司會(huì)根據(jù)這三種不同的方式收費(fèi),收費(fèi)越高意味著每項(xiàng)服務(wù)的成本越高。這里沒有標(biāo)準(zhǔn)答案,但主要挑戰(zhàn)在于現(xiàn)在的客戶對(duì) AI 更加持懷疑態(tài)度。人類犯的錯(cuò)誤可以輕易彌補(bǔ):“對(duì)不起,我們會(huì)確保不再發(fā)生!”而 AI 犯的錯(cuò)誤則會(huì)被更加仔細(xì)地審查,我們必須不遺余力地讓大家相信,人工智能可以像人類一樣學(xué)習(xí)(有時(shí)甚至更快!)。在產(chǎn)品的大規(guī)模應(yīng)用時(shí),這些 AI Agents 必須能夠自主運(yùn)行,因此您需要贏得客戶的信任,讓他們相信您的產(chǎn)品會(huì)按其應(yīng)有的方式運(yùn)行。
正如我們上文所討論的內(nèi)容,對(duì)于基于服務(wù)使用量的定價(jià)模式,企業(yè)預(yù)算的管理也很棘手,但這是一個(gè)相對(duì)比較容易解決的問題。我們觀察到的普遍原則 —— 同時(shí)也是我們?cè)?RunLLM 所采用的方法,是一個(gè)分層的、基于服務(wù)使用量的定價(jià)模式。客戶需要為預(yù)期的服務(wù)使用量預(yù)付一定金額,然后對(duì)于超出部分按計(jì)費(fèi)單位付費(fèi)。 這種計(jì)費(fèi)模式在以往也是相當(dāng)標(biāo)準(zhǔn)的做法,所以并沒有什么特別的秘訣可言。
最有趣,也是最具挑戰(zhàn)性的問題在于理解所做的工作對(duì)用戶的價(jià)值。我們之前分享的云基礎(chǔ)設(shè)施例子,屬于低利潤(rùn)但高工作量的業(yè)務(wù)。GPU 服務(wù)的價(jià)格不僅僅取決于你使用了多少秒,還取決于你使用的資源(GPU)的成本。另一方面,交付工作(Delivering work)則是一個(gè)高利潤(rùn)但低工作量的業(yè)務(wù)。這意味著每單位工作量的價(jià)格會(huì)更高,甚至可能會(huì)讓一些企業(yè)感到意外。盡管如此,我們認(rèn)為基于工作價(jià)值(大致等同于你需要支付給人類來完成這項(xiàng)工作的費(fèi)用)的定價(jià)模式是正確的方向。
再次強(qiáng)調(diào),這一問題沒有絕對(duì)正確的答案。 但我們已經(jīng)看到,隨著客戶逐漸理解他們不是在為計(jì)算資源付費(fèi),而是在為高質(zhì)量的工作成果付費(fèi),他們的想法正在發(fā)生變化。盡管如此,我們還有很長(zhǎng)的路要走,才能將這一信息有效傳達(dá)給市場(chǎng)。
04 凡事總有例外
凡事總有例外。在這種情況下,最明顯的例外就是引發(fā)了 GenAI 革命的兩款工具:ChatGPT 和 GitHub Copilot。這兩款產(chǎn)品都采用固定的基于人數(shù)的定價(jià)模式,而不是根據(jù)服務(wù)使用量來定價(jià)。
這種定價(jià)方式之所以可行,主要有兩個(gè)原因。首先,預(yù)測(cè)這兩款工具的使用量非常困難,因此基于像使用的 tokens 數(shù)量這樣的指標(biāo)來定價(jià)可能會(huì)產(chǎn)生負(fù)面激勵(lì) —— 你不知道自己要付多少錢,所以可能會(huì)擔(dān)心如果不小心可能會(huì)增加使用成本。更重要的是,在這種情況下,量化“工作量”的難度甚至比前文描述的案例還要大。ChatGPT 如何判斷它是否完成了任務(wù),或者 GitHub Copilot 如何確定其代碼自動(dòng)補(bǔ)全是否具有價(jià)值?在這兩種情況下,都需要依賴于用戶的反饋,而用戶的反饋可能是不準(zhǔn)確的,并且可以被控制。
從這兩個(gè)例子中可以看出,由于任務(wù)成本相對(duì)較低且任務(wù)性質(zhì)相對(duì)通用,基于人數(shù)的定價(jià)模式在短期內(nèi)可能會(huì)繼續(xù)有效。我們可能會(huì)在其他通用產(chǎn)品中看到同樣的趨勢(shì),但隨著市場(chǎng)的成熟,我們希望看到像 Copilot 這樣的產(chǎn)品能朝著更全面地完成任務(wù),并根據(jù)完成的工作量收取相應(yīng)的費(fèi)用的方向發(fā)展。
盡管 AI 市場(chǎng)在過去 18 個(gè)月里發(fā)生了巨大變化,但我們?nèi)匀惶幱诜浅T缙诘碾A段。每一家真正的 AI 原生企業(yè)都在學(xué)習(xí)理解客戶行為,這意味著從定價(jià)策略(pricing)到利潤(rùn)率(margins),再到基于數(shù)量的折扣(volume-based discounts),一切都在不斷地探索和調(diào)整之中。我們和其他人一樣,都在這個(gè)探索的過程中,我們并不認(rèn)為自己已經(jīng)找到了答案,但最近幾周我們一直在思考這個(gè)問題,因?yàn)槲覀冋谥匦略O(shè)計(jì) RunLLM 的定價(jià)策略。
這里還有一個(gè)關(guān)于“如何實(shí)施基于服務(wù)使用量的計(jì)費(fèi)模式”的子話題,以及是否值得為許多為實(shí)現(xiàn)這一過程自動(dòng)化而出現(xiàn)的服務(wù)付費(fèi)。我們還沒有形成自己的觀點(diǎn) —— 而且這也并沒有特別針對(duì)人工智能產(chǎn)品,所以我們暫時(shí)不深入討論這個(gè)問題。
無論最終的具體機(jī)制如何,我們堅(jiān)信基于工作量的定價(jià)模式是 AI 的發(fā)展方向,當(dāng)然對(duì)于企業(yè)而言也希望如此(譯者注:這種模式更加符合他們對(duì)于效率和成本控制的需求),也許對(duì)于面向普通消費(fèi)者的技術(shù)產(chǎn)品也同樣適用。也許 AI 正是我們需要的突破口,讓互聯(lián)網(wǎng)上無處不在的微交易(micro-transactions)成為可能?
Thanks for reading!
Hope you have enjoyed and learned new things from this blog!
About the authors
Vikram Sreekanti
Co-founder & CEO of RunLLM
??https://substack.com/@vsreekanti??
Joseph E. Gonzalez
Professor at UC Berkeley and Co-Founder at Run LLM
??https://substack.com/@generatingconversation??
END
本期互動(dòng)內(nèi)容 ??
?如何更準(zhǔn)確地衡量AI完成工作的價(jià)值?您認(rèn)為應(yīng)該考慮哪些因素?
本文經(jīng)原作者授權(quán),由 Baihai IDP 編譯。如需轉(zhuǎn)載譯文,請(qǐng)聯(lián)系獲取授權(quán)。
原文鏈接:
???https://frontierai.substack.com/p/the-future-of-ai-pricing??
