企業(yè)對(duì)AI模型的判斷:開源為何會(huì)勝出
企業(yè)界對(duì)開源大型語(yǔ)言模型(LLM)的使用迅速增長(zhǎng),越來(lái)越多的公司在AI領(lǐng)域獲得了更多專業(yè)知識(shí),尋求更大的控制力、定制能力和成本效率。
盡管早期主要是OpenAI的GPT-4等封閉模型占據(jù)主導(dǎo)地位,但多位企業(yè)領(lǐng)導(dǎo)人在接受記者采訪時(shí)表示,開源模型的質(zhì)量已經(jīng)縮小了差距,并且在企業(yè)中的增長(zhǎng)速度至少與封閉模型持平。
這與今年早些時(shí)候的情況有所不同。當(dāng)時(shí)我曾報(bào)道,盡管開源的前景毋庸置疑,但它的普及速度相對(duì)較慢,然而Meta向記者表示,其公開發(fā)布的模型下載量已經(jīng)超過(guò)4億次,速度是去年的10倍,使用量在2024年5月至7月間翻了一番,這一采用熱潮反映出多種因素的共同作用——從技術(shù)上的平衡到信任方面的考量——正在推動(dòng)先進(jìn)企業(yè)向開源替代方案靠攏。
Groq的CEO Jonathan Ross直言道:“開源始終是贏家?!?Groq是一家提供專用AI處理基礎(chǔ)設(shè)施的公司,客戶大量使用開源模型。他補(bǔ)充說(shuō):“大多數(shù)人都非常擔(dān)心被廠商鎖定?!?/p>
即便是投入40億美元于封閉源廠商Anthropic的AWS——這是AWS史上最大的投資——也承認(rèn)了這一趨勢(shì)。AWS AI和基礎(chǔ)設(shè)施副總裁Baskar Sridharan表示:“我們確實(shí)在過(guò)去幾個(gè)月里看到了對(duì)公共模型的更大需求?!盇WS通過(guò)其Bedrock服務(wù)提供盡可能多的開放源和封閉源模型,以滿足客戶的不同需求。
大型應(yīng)用公司平臺(tái)轉(zhuǎn)型加速了開源模型的普及
在初創(chuàng)公司或個(gè)人開發(fā)者中,OpenAI等封閉源模型依然領(lǐng)先,但在企業(yè)領(lǐng)域,情況卻大不相同。不幸的是,市場(chǎng)上沒有第三方渠道追蹤企業(yè)級(jí)開源和封閉LLM的競(jìng)爭(zhēng)情況,部分原因在于這一信息難以公開。API公司Kong在7月對(duì)700多位用戶進(jìn)行了調(diào)查,但由于受訪者中包括了較小的公司,因此傾向于選擇操作簡(jiǎn)單的OpenAI(這一報(bào)告還包含其他AI服務(wù)如Bedrock,但Bedrock并非LLM,而是一個(gè)提供多種LLM(包括開源模型)的服務(wù)——類似于“混合”的對(duì)比)。
但從實(shí)證角度來(lái)看,證據(jù)正在積累。例如,各大商業(yè)應(yīng)用提供商都在積極整合開源LLM,徹底改變了企業(yè)應(yīng)用這些模型的方式。上個(gè)月,Salesforce引領(lǐng)了最新一波浪潮,推出了Agentforce,承認(rèn)其客戶關(guān)系管理客戶需要更靈活的AI選項(xiàng),該平臺(tái)允許企業(yè)在Salesforce應(yīng)用中接入任意LLM,使開源模型的使用便捷度媲美封閉模型。Salesforce旗下的Slack也迅速跟進(jìn)。
Oracle也在上個(gè)月擴(kuò)展了其企業(yè)套件中對(duì)最新Llama模型的支持,包括ERP、人力資源和供應(yīng)鏈等大型企業(yè)應(yīng)用程序,另一位商業(yè)應(yīng)用巨頭SAP宣布通過(guò)其Joule AI助手提供全面的開源LLM支持,而ServiceNow在客戶服務(wù)和IT支持等工作流自動(dòng)化領(lǐng)域同時(shí)支持開源和封閉LLM集成。
Oracle的AI和數(shù)據(jù)管理服務(wù)執(zhí)行副總裁Greg Pavlik表示:“我認(rèn)為開源模型最終會(huì)勝出。”他指出,尤其是在垂直領(lǐng)域中,企業(yè)客戶可以修改模型并進(jìn)行實(shí)驗(yàn),這種能力結(jié)合成本優(yōu)勢(shì)非常具有吸引力。
復(fù)雜的“開源”模型生態(tài)系統(tǒng)
雖然Meta的Llama已經(jīng)嶄露頭角,但開源LLM生態(tài)系統(tǒng)演變?yōu)橐粋€(gè)細(xì)致的市場(chǎng),不同的開源方式各有特點(diǎn)。例如,Meta的Llama在市場(chǎng)上已有超過(guò)65000個(gè)派生模型。企業(yè)IT領(lǐng)導(dǎo)者需要在完全開放的權(quán)重和訓(xùn)練數(shù)據(jù)以及帶有商業(yè)許可的混合模型之間進(jìn)行權(quán)衡和選擇。
例如,Mistral AI通過(guò)提供高性能模型并提供靈活的許可條款,成功吸引了需要不同支持級(jí)別和定制化的企業(yè),而Cohere則采用了另一種模式,提供開源模型權(quán)重,但需支付許可費(fèi)——這種模式因其透明性和商業(yè)支持的平衡性而受到部分企業(yè)的青睞。
這種開源模型生態(tài)系統(tǒng)的復(fù)雜性已成為成熟企業(yè)的優(yōu)勢(shì)。企業(yè)可以選擇符合其具體需求的模型——無(wú)論是需要對(duì)模型權(quán)重進(jìn)行全面控制以實(shí)現(xiàn)高度定制,還是支持開源權(quán)重以便快速部署。領(lǐng)導(dǎo)者表示,檢查和修改這些模型的能力提供了完全封閉替代方案無(wú)法實(shí)現(xiàn)的控制水平。此外,使用開源模型往往需要一支技術(shù)嫻熟的團(tuán)隊(duì)來(lái)對(duì)模型進(jìn)行微調(diào)和高效管理,這也是擁有更多資源的企業(yè)在使用開源模型時(shí)具備優(yōu)勢(shì)的另一個(gè)原因。
Meta對(duì)Llama的快速開發(fā)展示了企業(yè)為何青睞開源模型的靈活性。AT&T使用基于Llama的模型進(jìn)行客戶服務(wù)自動(dòng)化,DoorDash用于幫助解答其軟件工程師的問題,而Spotify則用于內(nèi)容推薦。高盛在受高度監(jiān)管的金融服務(wù)應(yīng)用中部署了這些模型。其他Llama用戶還包括Niantic、野村、Shopify、Zoom、Accenture、Infosys、KPMG、富國(guó)銀行、IBM以及格萊美獎(jiǎng)。
Meta積極培養(yǎng)渠道合作伙伴。目前所有主要的云提供商都支持Llama模型。Meta產(chǎn)品副總裁Ragavan Srinivasan表示:“企業(yè)客戶對(duì)Llama的興趣和部署量在急劇增長(zhǎng),特別是在Llama 3.1和3.2發(fā)布之后。尤其是大型的405B模型獲得了非常強(qiáng)勁的關(guān)注,因?yàn)槌墒斓钠髽I(yè)客戶看到了能夠在多種模型之間切換的價(jià)值。”他提到,客戶可以使用蒸餾服務(wù)從Llama 405B創(chuàng)建衍生模型,以根據(jù)自己的數(shù)據(jù)進(jìn)行微調(diào)。蒸餾是一種在保留核心能力的同時(shí)創(chuàng)建更小、更快模型的過(guò)程。
事實(shí)上,Meta憑借其其他模型組合很好地覆蓋了市場(chǎng),包括Llama 90B模型,可用于大多數(shù)提示任務(wù),而1B和3B模型則小到可以在設(shè)備上使用。今天,Meta還發(fā)布了這些小型模型的“量化”版本。量化是一種使模型更小的過(guò)程,從而減少功耗并加快處理速度。此次最新發(fā)布的版本在訓(xùn)練過(guò)程中進(jìn)行了量化,使其比其他業(yè)內(nèi)的量化替代品更高效——在生成標(biāo)記方面速度提升四倍,功耗減少到原來(lái)的四分之一。
技術(shù)能力推動(dòng)復(fù)雜部署
開源和封閉模型之間的技術(shù)差距實(shí)際上已消失,但各自的優(yōu)勢(shì)仍然明顯,成熟的企業(yè)正在戰(zhàn)略性地利用這些優(yōu)勢(shì),這帶來(lái)了更細(xì)致的部署方式,企業(yè)根據(jù)特定任務(wù)需求組合不同模型。
Salesforce的AI執(zhí)行副總裁Jayesh Govindarajan解釋道:“大型的專有模型在高級(jí)推理和分解模糊任務(wù)方面非常出色。”但對(duì)于那些推理要求較低、以語(yǔ)言創(chuàng)作為主的任務(wù),例如撰寫電子郵件、創(chuàng)建營(yíng)銷內(nèi)容、公司研究,“開源模型已經(jīng)達(dá)到同等水平,甚至在某些方面更好。”他還指出,即使是高推理任務(wù)也可以分解為多個(gè)子任務(wù),其中很多最終成為以語(yǔ)言為主的任務(wù),而開源模型在這方面表現(xiàn)出色。
Intuit,這家擁有會(huì)計(jì)軟件QuickBooks和稅務(wù)軟件TurboTax的公司,在幾年前就開始了其LLM之旅,成為財(cái)富500強(qiáng)公司中非常早的行動(dòng)者。其實(shí)施過(guò)程展示了成熟的應(yīng)用策略。對(duì)于QuickBooks中的交易分類等面向客戶的應(yīng)用,Intuit發(fā)現(xiàn)其基于Llama 3微調(diào)的LLM比封閉替代品表現(xiàn)出更高的準(zhǔn)確性。Intuit的首席數(shù)據(jù)官Ashok Srivastava解釋說(shuō):“我們發(fā)現(xiàn)可以使用一些開源模型,將其調(diào)整到較小規(guī)模,并用于特定領(lǐng)域的需求。”這些模型“體積小得多,延遲低且精度不減,甚至更高?!?/p>
銀行業(yè)也展示了從封閉LLM向開源LLM的遷移。服務(wù)于澳大利亞和新西蘭的ANZ銀行最初使用OpenAI進(jìn)行快速實(shí)驗(yàn),但在轉(zhuǎn)向?qū)嶋H應(yīng)用部署時(shí),放棄了OpenAI,改為基于Llama模型的微調(diào)模型,以適應(yīng)特定的金融應(yīng)用場(chǎng)景,并滿足對(duì)穩(wěn)定性和數(shù)據(jù)主權(quán)的需求,該銀行發(fā)布了一篇博客,詳細(xì)介紹了這一過(guò)程,強(qiáng)調(diào)了Llama的多版本提供的靈活性、靈活的托管選項(xiàng)、版本控制和便捷的回滾功能。據(jù)我們了解,美國(guó)排名前三的一家銀行最近也放棄了OpenAI,轉(zhuǎn)向開源解決方案。
正是這種想要從OpenAI轉(zhuǎn)向開源的需求促使一些公司推出了“切換工具包”,例如PostgresML的產(chǎn)品,使企業(yè)能夠在幾分鐘內(nèi)從OpenAI無(wú)縫轉(zhuǎn)向開源。
基礎(chǔ)設(shè)施的演變消除了部署障礙
開源LLM的部署路徑已大大簡(jiǎn)化。Meta的Srinivasan概述了企業(yè)采用的三條主要路徑:
1. 云合作伙伴集成:主要的云提供商現(xiàn)在提供了簡(jiǎn)化的開源模型部署方案,具有內(nèi)置的安全性和擴(kuò)展功能。
2. 自定義技術(shù)棧開發(fā):具備技術(shù)能力的公司可以在本地或云端構(gòu)建自己的基礎(chǔ)設(shè)施,保持對(duì)AI技術(shù)棧的完全控制——Meta也通過(guò)所謂的Llama Stack提供幫助。
3. API訪問:對(duì)于追求簡(jiǎn)便的公司,現(xiàn)在多家供應(yīng)商提供開源模型的API訪問,使其使用方式如同封閉模型一樣簡(jiǎn)單。Groq、Fireworks和Hugging Face就是例子,它們都能提供推理API、微調(diào)API以及所有類似于專有供應(yīng)商的功能。
安全性和控制優(yōu)勢(shì)顯現(xiàn)
開源方法在模型安全性和控制方面也意外地成為了領(lǐng)先者,特別適合那些需要對(duì)其AI系統(tǒng)進(jìn)行嚴(yán)格監(jiān)管的企業(yè)。Groq的Ross指出:“Meta在安全性方面非常謹(jǐn)慎,因?yàn)樗麄冏屇P兔嫦蚬??!彼f(shuō),“他們實(shí)際上更為小心。相較之下,其他公司則不太透明,測(cè)試的難度更大?!?/p>
Meta對(duì)安全性的重視也反映在其組織結(jié)構(gòu)中。Ross表示,根據(jù)幾個(gè)月前與Meta的對(duì)話,負(fù)責(zé)Llama安全性和合規(guī)性的團(tuán)隊(duì)相對(duì)于工程團(tuán)隊(duì)規(guī)模較大。(Meta發(fā)言人表示公司不對(duì)人員信息發(fā)表評(píng)論)。9月發(fā)布的Llama 3.2推出了Llama Guard Vision,進(jìn)一步豐富了7月發(fā)布的安全工具。這些工具可以:
? 檢測(cè)潛在問題的文本和圖像輸入,防止其進(jìn)入模型
? 監(jiān)控并過(guò)濾輸出結(jié)果,以確保安全和合規(guī)
企業(yè)AI提供商在此基礎(chǔ)安全功能之上進(jìn)行了擴(kuò)展。例如,AWS的Bedrock服務(wù)允許企業(yè)在不同模型中建立一致的安全保護(hù)機(jī)制。AWS的Sridharan解釋道:“一旦客戶設(shè)置了這些政策,就可以在不同的公共模型之間切換,而無(wú)需重新編寫應(yīng)用程序。”這種標(biāo)準(zhǔn)化對(duì)管理多個(gè)AI應(yīng)用程序的企業(yè)至關(guān)重要。
作為企業(yè)級(jí)云數(shù)據(jù)提供商的Databricks和Snowflake也認(rèn)可Llama的安全性:“Llama模型保持了‘最高的安全和可靠性標(biāo)準(zhǔn)’,”Neural Networks的CTO Hanlin Tang表示。
Intuit的實(shí)施展示了企業(yè)如何在安全措施上進(jìn)行額外的疊加,該公司的GenSRF(安全、風(fēng)險(xiǎn)和欺詐評(píng)估)系統(tǒng),作為其“GenOS”操作系統(tǒng)的一部分,監(jiān)控約100個(gè)信任和安全維度。Intuit的Srivastava解釋道:“我們有一個(gè)委員會(huì)負(fù)責(zé)審查L(zhǎng)LM,確保其標(biāo)準(zhǔn)與公司原則一致?!辈贿^(guò),他指出,對(duì)開源模型的審查與公司對(duì)封閉源模型的審查沒有不同。
通過(guò)合成訓(xùn)練解決數(shù)據(jù)來(lái)源問題
關(guān)于LLM的一個(gè)關(guān)鍵問題在于其訓(xùn)練數(shù)據(jù)的來(lái)源。出版商和其他創(chuàng)作者提起了許多訴訟,指控LLM公司侵犯版權(quán)。大多數(shù)LLM公司,無(wú)論是開源還是封閉的,都沒有完全透明地披露其數(shù)據(jù)來(lái)源。由于大部分?jǐn)?shù)據(jù)來(lái)自公開網(wǎng)絡(luò),因此可能存在高度的偏見并包含個(gè)人信息。
許多封閉源公司為用戶提供了“賠償保障”,即在使用其LLM時(shí)對(duì)法律風(fēng)險(xiǎn)或訴訟提供保護(hù)。開源提供商通常不提供此類賠償。不過(guò),最近關(guān)于數(shù)據(jù)來(lái)源的擔(dān)憂似乎有所緩解。通過(guò)微調(diào)可以對(duì)模型進(jìn)行調(diào)整和過(guò)濾,Meta等公司還創(chuàng)建了更多對(duì)齊和其他安全措施以緩解這些擔(dān)憂。數(shù)據(jù)來(lái)源問題對(duì)于一些企業(yè),特別是那些受嚴(yán)格監(jiān)管的行業(yè)(如銀行業(yè)或醫(yī)療保健)仍然是一個(gè)問題,但一些專家建議,通過(guò)合成訓(xùn)練數(shù)據(jù),這些數(shù)據(jù)來(lái)源問題可能很快會(huì)得到解決。
Salesforce的Govindarajan解釋道:“想象一下,如果我可以采取公共的專有數(shù)據(jù),通過(guò)一些算法方法進(jìn)行修改,以創(chuàng)建反映真實(shí)世界的合成數(shù)據(jù),那么我其實(shí)不需要訪問所有那種互聯(lián)網(wǎng)數(shù)據(jù)……數(shù)據(jù)來(lái)源問題就消失了。”
Meta已接受這一趨勢(shì),并在Llama 3.2的1B和3B模型中加入了合成數(shù)據(jù)訓(xùn)練。
區(qū)域模式揭示了由成本驅(qū)動(dòng)的采用趨勢(shì)
開源LLM的采用顯示出明顯的區(qū)域和行業(yè)特定模式。Oracle的Pavlik觀察到:“在北美,封閉源模型在生產(chǎn)中的使用量肯定超過(guò)了開源模型?!彼又硎荆骸岸诶∶乐蓿覀兛吹絃lama模型在生產(chǎn)場(chǎng)景中的使用量大幅上升,這幾乎是相反的?!?/p>
導(dǎo)致這些地區(qū)差異的原因尚不明確,但可能反映出在成本和基礎(chǔ)設(shè)施方面的不同優(yōu)先級(jí)。Pavlik描述了一個(gè)全球范圍內(nèi)發(fā)生的情景:“一些企業(yè)用戶開始使用GPT-4進(jìn)行一些原型開發(fā)……收到第一份賬單后,他們會(huì)想,‘天啊,太貴了!’這比他們預(yù)期的要昂貴得多,于是他們開始尋找替代方案。”
市場(chǎng)動(dòng)態(tài)指向商業(yè)化趨勢(shì)
LLM部署的經(jīng)濟(jì)性正迅速向開源模型傾斜。風(fēng)投家Marc Andreessen指出:“過(guò)去一年里,生成LLM輸出的每個(gè)token的成本已經(jīng)下降了100倍。”他質(zhì)疑封閉源模型提供商是否能保持盈利,這樣的“價(jià)格戰(zhàn)”對(duì)那些為封閉模型開發(fā)籌集數(shù)十億美元的公司構(gòu)成了壓力,而那些通過(guò)核心業(yè)務(wù)支持開源開發(fā)的組織則更具優(yōu)勢(shì)。
Intuit的Srivastava表示:“我們知道這些模型的成本將趨近于零?!彼娣Q,過(guò)度投入這些模型的公司可能很快會(huì)面臨后果,這種趨勢(shì)特別有利于Meta,因?yàn)镸eta可以提供免費(fèi)模型,同時(shí)從其平臺(tái)和產(chǎn)品的應(yīng)用中獲取價(jià)值。
Groq的Ross認(rèn)為,LLM競(jìng)爭(zhēng)的一個(gè)很好的比喻是操作系統(tǒng)之爭(zhēng)。“Linux可能是LLM的最佳類比?!彪m然Windows主導(dǎo)了消費(fèi)級(jí)計(jì)算,但開源的Linux卻在企業(yè)系統(tǒng)和工業(yè)計(jì)算中占據(jù)主導(dǎo)地位。Intuit的Srivastava也看到類似的模式:“我們一次又一次地看到開源操作系統(tǒng)與非開源操作系統(tǒng)的競(jìng)爭(zhēng)。瀏覽器之爭(zhēng)也是如此,”當(dāng)時(shí)開源的Chromium瀏覽器擊敗了封閉源的模型。
SAP全球AI主管Walter Sun也贊同這一觀點(diǎn):“我認(rèn)為在競(jìng)爭(zhēng)中,開源的大型語(yǔ)言模型與封閉源模型一樣有效,這給予了人們更多的靈活性?!彼a(bǔ)充道:“如果你有特定的需求和應(yīng)用場(chǎng)景……開源是實(shí)現(xiàn)的最佳途徑?!?/p>
Groq的Ross和其他一些觀察家認(rèn)為,Meta可能有能力投入1000億美元來(lái)訓(xùn)練其Llama模型,這一數(shù)額超過(guò)了所有專有模型提供商的總和。他表示,Meta有動(dòng)力這樣做,因?yàn)樗荓LM的最大受益者之一,需要它們來(lái)提升其核心業(yè)務(wù)的智能水平,為Instagram、Facebook和WhatsApp上的用戶提供AI服務(wù)。Meta表示,其AI每周接觸1.85億活躍用戶,這樣的規(guī)模幾乎無(wú)出其右。
這表明開源LLM不會(huì)面臨其他開源項(xiàng)目中經(jīng)常出現(xiàn)的可持續(xù)性挑戰(zhàn)。Meta CEO Mark Zuckerberg在7月的開源AI支持信中宣布:“從明年開始,我們預(yù)計(jì)未來(lái)的Llama模型將成為行業(yè)中最先進(jìn)的模型。”他說(shuō),“但即便在此之前,Llama已經(jīng)在開放性、可修改性和成本效率方面處于領(lǐng)先地位?!?/p>
專用模型豐富了生態(tài)系統(tǒng)
專用行業(yè)解決方案的出現(xiàn)進(jìn)一步加強(qiáng)了開源LLM生態(tài)系統(tǒng)。例如,IBM推出了其Granite模型,完全開源,并專為金融和法律應(yīng)用訓(xùn)練而成。IBM的GenAI全球管理合伙人Matt Candy表示:“Granite模型是我們的‘殺手級(jí)應(yīng)用’。”他說(shuō),“這些是唯一能完全解釋訓(xùn)練和調(diào)優(yōu)數(shù)據(jù)集來(lái)源的模型。如果你身處一個(gè)受監(jiān)管的行業(yè),并將你的企業(yè)數(shù)據(jù)與該模型結(jié)合使用,你需要非常清楚其內(nèi)容?!?/p>
IBM的業(yè)務(wù)受益于開源,包括將其Red Hat Enterprise Linux操作系統(tǒng)打包進(jìn)混合云平臺(tái)中,包含Granite模型的使用以及InstructLab——一種微調(diào)和增強(qiáng)LLM的方法。其AI業(yè)務(wù)已初見成效。Candy表示:“看看股價(jià)吧——?dú)v史新高。”
信任日益傾向于開源
信任正在轉(zhuǎn)向企業(yè)可以擁有和控制的模型。Inflection AI的首席運(yùn)營(yíng)官Ted Shelton解釋了封閉模型的根本挑戰(zhàn)。Inflection AI是一家為企業(yè)提供許可源代碼和完整應(yīng)用棧的公司,作為封閉和開源模型的替代方案。他指出:“無(wú)論是OpenAI、Anthropic、Gemini還是Microsoft,它們都愿意為企業(yè)客戶提供所謂的私有計(jì)算環(huán)境,然而,這種計(jì)算環(huán)境仍由模型提供商的員工管理,客戶無(wú)法訪問模型本身?!边@是因?yàn)長(zhǎng)LM的所有者希望保護(hù)源代碼、模型權(quán)重和超參數(shù)訓(xùn)練細(xì)節(jié)等專有元素,而這些信息對(duì)于直接訪問模型的客戶無(wú)法隱藏。由于大量代碼是用Python編寫的,而不是編譯語(yǔ)言,因此它們依然暴露在外。
這種情況對(duì)于嚴(yán)肅對(duì)待AI部署的企業(yè)而言不可接受。Shelton指出:“一旦你允許‘OpenAI的員工將真正控制和管理模型,他們將接觸到公司的所有數(shù)據(jù)’,這就成為了數(shù)據(jù)泄漏的一個(gè)風(fēng)險(xiǎn)點(diǎn)?!彼a(bǔ)充道,“那些真正關(guān)心數(shù)據(jù)安全的公司會(huì)說(shuō),‘不,我們不會(huì)這么做。我們會(huì)實(shí)際運(yùn)行自己的模型,而唯一的選擇就是開源。’”
未來(lái)的方向
雖然封閉源模型在較簡(jiǎn)單的用例中仍然保持市場(chǎng)領(lǐng)先地位,但成熟的企業(yè)越來(lái)越意識(shí)到未來(lái)的競(jìng)爭(zhēng)力依賴于對(duì)其AI基礎(chǔ)設(shè)施的更多控制。正如Salesforce的Govindarajan所觀察到的:“一旦你看到價(jià)值,并開始將其擴(kuò)展到所有用戶和客戶身上,就會(huì)開始提出一些有趣的問題。是否可以提高效率?是否可以實(shí)現(xiàn)成本效率?是否可以提高速度?”
這些問題的答案正促使企業(yè)轉(zhuǎn)向開源模型,即便這一轉(zhuǎn)變并非總是那么順利。Inflection AI的Shelton說(shuō):“我確實(shí)認(rèn)為會(huì)有一大批公司努力嘗試讓開源發(fā)揮作用,因?yàn)樗麄儎e無(wú)選擇。你要么屈服,接受幾家大型科技公司控制GenAI,要么接受Mark Zuckerberg拋出的救命稻草,然后說(shuō):‘好吧,讓我們一起努力吧?!?/p>