關于GenAI,要冷靜
作者 | 白發川
瘋狂的全民大模型
大約一年前,大家熱聊的先是LLM,LLM的全稱是Large language models,也就是大語言模型,那么它必然有2個特點,一個是自然語言,第二個是大。隨后它帶來了一個效果,就是能“生成”,可以像人一樣發言,不過輸出僅限于文本,看起來能夠自我輸出和自我思考,于是基于這個理念,AIGC這個概念應運而生。
緊接著,圍繞它誕生了非常多看起來更加“多模態的東西”,比如文生圖,圖生文,但是背后實質上是多個模型的配合。當然這無可厚非,因為人也不是單純靠腦袋在工作,依舊有很多末端神經充當包工頭的角色。
然后隨之而來的,似乎都不談LLM了,開始談GenAI、談大模型了。仿佛人類想象中能夠觸達的輸出,大模型也都可以。于是各種通用人工智能紛至沓來,“人類被計算機碾壓,無數群體即將失業”的輿論被拉起來,整個世界被GenAI裹挾著前進。
大廠不斷進行軍備競賽,搶購顯卡,跑模型,甚至不知道自己在干嘛,就因為大家都在干,于是自己也得干,而其中甚至多數,抓著開源的代碼,站上巨人的肩膀,開始賽跑。
除了基礎設施廠商在做模型、在不斷演進外,圍繞大模型生態的企業也沒閑著,通過各種方式,演繹自己的故事,例如大模型既然動腦能力不錯,但是動手能力差,那么就安裝手和腳,做Agent和MulAgent。大模型無法感知企業內部知識,于是開始做RAG。
實際上,這個周期內,真正賺到錢的,只有賣顯卡的和賣課程的。
誰在做大模型
前面提到,LLM有兩個特點,一個是自然語言,一個是大,因為大,那么自然不是任何一家企業都能做,真正具備做大模型能力的企業必須滿足這樣的條件:
- 擁有足夠的硬件
- 擁有足夠的數據
- 擁有足夠的人才
- 擁有足夠的資金
目前叫得上名字的企業都能分別滿足這幾個維度,但是滿足的程度是不一樣的。比如nivdia在硬件資源方面的沉淀就非常深厚,而有的企業則擁有更加多和好的數據,但在硬件資源方面則相對欠缺。
不過,即便如此,也能發現一個現象,那就是當談到大模型的時候,似乎出頭的并不是之前已經存在的大廠,而是某些新秀——源源不斷的新秀,而之前就已經聲名鵲起的大廠,其存在感反而弱了非常多。
這些新秀企業都有非常鮮明的特點,很多企業的成員都非常年輕,且更加優秀,大部分都在大模型領域有非常深的學術造詣,進而步入到大模型的實踐落地中。其次相對于純軟件工程來說,在大模型領域,模型精準度優化的重要性會高于代碼本身。
當然這種情況在軟件工程中也存在,比如當我們趕著推進功能進度的時候,就會降低代碼質量要求。然而其不同之處在于大模型領域的代碼和最終推理的運行沒有必然的聯系,此特點從開源生態可見一斑。軟件工程開源的是源碼本身,而大模型領域開源的是模型。
也就是說,在軟件工程領域,軟件源碼質量會直接影響可運行的軟件本身,所以不得不做好軟件工程這件事,甚至會過度關注源碼質量本身,通過源碼的質量來控制最終的交付的功能的質量。很多甲方企業甚至會把軟件源碼交付質量作為項目驗收的條款之一。把這個邏輯映射到大模型領域,交付件是什么?是大模型,一個文件,這個文件可能1GB,可能100GB,可能1TB,當運行這個模型進行推理的時候,沒有人關心當時訓練出這個模型的那一堆代碼到底質量如何,甚至把那堆代碼丟掉,也不影響這個模型的后續使用。
因為源碼和交付件沒有必然關系可能有人會問,難道模型不需要再優化?如果要擴展功能怎么辦?且不說站在外圍來看,微調已經是標準手法,模型文件里面本身是什么?權重,權重再抽象呢?參數,也就是當你拿到一個模型文件之后,有無之前的代碼,并不影響這個模型的持續演進,極端情況下,代碼就是一次性產物,是一次性消耗品,既然是一次性消耗,那么就不用過度追求它的可演進。
所以目前真正在投入做大模型的企業,通常是擁有足夠硬件的企業,并且有足夠人才。在這兩個維度滿足度較高,那么投入做大模型,就會脫穎而出。
誰在用大模型
既然有人做,那就應該有人用,否則做大模型的廠商就應該消亡了,可是看目前的勢頭,似乎并沒有,那么就意味著,一定有人在用,或者資本看好,認為未來一定有人用,那么會是誰?
站在資本的角度,如果大模型具備人一樣的能力,那么就可以把手下的人全部裁掉,采購大模型服務,24小時不間斷地上班。那么在這樣的業務下,需要滿足如下兩個條件:
- 招聘員工的成本比大模型低,否則裁掉不是一筆劃算的買賣。
- 自身業務屬于資源生產的上游,最好有壟斷,否則最后會變成你和你的朋友,大家都用大模型在搞,最后變成了一堆機器人互玩,不但沒有新的資源產生,反而會把資源消耗殆盡。
站在個人的角度,對大模型有沒有需求?有,且非常多,各種自媒體視頻、文案,還不算灰產那些雜七雜八的東西。
也就是個人自身日常生活需求下,和企業基于自身業務的需求下,都存在對大模型的需求,那么這些需求里面,哪些是正統的,或者真正有價值的?我認為會是以下幾類:
- 服務于C端用戶自身的GenAI:如果是C端用戶借助大模型提升自己的短板并把這個過程當作內容產物對外輸出,這樣的場景是沒有價值的,最后不外乎所有地方都充斥著大模型產生的內容,甚至可能是同一個模型產生的,所以類似自媒體借助大模型去搞視頻這種業務,最后都會如此。唯有大模型的輸出,服務于自身個人需求,才會細水長流。
- 服務于B端的GenAI:只有服務于實體生產,產生真實生活資源的,或者服務于自身對內流程的,才真正有價值,其余的都是曇花一現。可能有人會覺得,很多企業使用大模型做一個客服人員來代替人24小時值班回答客戶問題,這類業務場景非常有價值。確實有價值,不過有沒有思考過一個問題,很有可能提問的這個“用戶”也不是人,而是是一個人的虛擬助理,設置這個虛擬助手和這個企業的客服人員,恰好購買了同一個模型服務?
因此雖然看起來地球上每一個角落,都能找到對大模型的需求,甚至都沒有辦法反駁它的合理性。但是這些需求,未必都是真正有意義和價值的。
關于GenAI,要冷靜
關于GenAI的實施,我勸你冷靜。拋開C端用戶隨意使用大模型生成內容滿足自身需求外,在大部分企業中,企業在考慮大模型的時候,有如下問題是沒法繞過的:
- 安全問題:且不提調戲大模型泄漏原始數據這種比較好處理的問題,安全問題的核心是合規,這里的合規是感性的,而非理性的。是定性的,而非定量的。比如你沒有辦法通過規則窮舉所有性別歧視的情況,但是你需要保證模型在你的業務場景下的輸出是沒有性別歧視的。
- 絕對正確:大模型輸出不可能絕對正確,但是有部分場景,就是要求絕對正確,當沒有大模型的時候,就算0.0001%的情況下出現絕對不正確,一定有解決辦法,比如通知張三是臨時工,張三的領導李四負有直接管理職責,如果是大模型呢?
- 版權問題:老生常談。
我們站在三個角色的視角來思考這樣一個問題(雖然這個問題目前可以被100%解決):
一個基于大模型做的BI系統上線了,但是這個系統在統計過去1年銷售額度的時候,連續問了10次,其中有1次和其余9次不一樣。這個BI系統涉及到三方企業:甲方A,大模型廠商B和軟件實施方C。A開始就這個P0事故進行追責尋求,C進行一番Debug后發現是因為大模型幻覺問題,于是這個問題劃到了B,但是B作為大模型服務提供商,一定不會保證100%不出現幻覺,且這一點一定不會出現在SLA里面,那么這個問題怎么解決?如果非要找一方來承擔這個問題,會是誰?
目前來說,期望引入GenAI來服務于對外的業務,相對來說風險較高,而從商業模式來說,以GenAI作為項目交付物,且服務于甲方的客戶的交付項目,幾乎有著不可評估的交付風險,當然潛在就存在不可估量的咨詢潛力。
目前來說,期望引入GenAI來解決企業發展問題,或者解決流程問題,幾乎都是不太可能的。
金融學家吳曉求說,IPO的錢不是企業“ICU”的救命錢,它是發展的錢,不是救命的錢,而目前任何把GenAI定位為“IPO”的需求大概率都不會成功。
所以對于GenAI,在全面狂歡之下,反而更應該冷靜,因為隱藏在GenAI美好表象后的風險遠比想象中要大。