超5800億美元!微軟谷歌神仙打架,讓英偉達(dá)市值飆升,約為5個英特爾
ChatGPT在手,有問必答。
你可知,與它每次對話的計算成本簡直讓人淚目。
此前,分析師稱ChatGPT回復(fù)一次,需要2美分。
要知道,人工智能聊天機器人所需的算力背后燒的可是GPU。
這恰恰讓像英偉達(dá)這樣的芯片公司豪賺了一把。
2月23日,英偉達(dá)股價飆升,使其市值增加了700多億美元,總市值超5800億美元,大約是英特爾的5倍。
在英偉達(dá)之外,AMD可以稱得上是圖形處理器行業(yè)的第二大廠商,市場份額約為20%。
而英特爾持有不到1%的市場份額。
ChatGPT在跑,英偉達(dá)在賺
隨著ChatGPT解鎖潛在的應(yīng)用案例,這可能迎來人工智能應(yīng)用的另一個拐點。
為什么這么說?
谷歌母公司Alphabet董事長John Hennessy在接受路透的采訪時表示,大型語言模型等人工智能的對話成本可能是傳統(tǒng)搜索引擎的10倍以上。
Morgan Stanley分析表示,谷歌去年共計3.3萬億次搜索,每次搜索的成本僅為0.2美分。
據(jù)估計,若將谷歌旗下聊天機器人Bard引入搜索引擎,并用其處理谷歌一半的搜索和提問,按照每次答案50詞計算,公司在2024年的成本可能會增加60億美元。
同樣,專注于芯片技術(shù)的咨詢公司SemiAnalysis稱,受到谷歌內(nèi)部芯片Tensor Processing Units等的影響,將聊天機器人添加至搜索引擎中,可能會讓谷歌額外花費30億美元。
他認(rèn)為谷歌必須降低此類人工智能的運營成本,但這一過程并不容易,最壞的情況也得需要幾年時間。
正是如此,通過AI語言模型進行搜索比傳統(tǒng)搜索需要消耗更多的算力。
分析師表示,未來幾年的額外成本可能高達(dá)數(shù)十億美元。
Gartner預(yù)計,到2026年,用于數(shù)據(jù)中心的GPU等專業(yè)芯片的份額預(yù)計將從2020年的不到3%上升15%以上。
雖然很難確切地指出如今人工智能在英偉達(dá)收入中所占的比例有多大,但隨著大型科技公司競相開發(fā)類似的AI應(yīng)用程序,人工智能有成倍增長的潛力。
周三,英偉達(dá)還宣布了人工智能云服務(wù),并致力于甲骨文、微軟和谷歌合作,為其提供使用Nvidia GTX,通過簡單的瀏覽器訪問進行人工智能處理的能力。
這個新平臺將由其他云服務(wù)商提供,將幫助那些不具備構(gòu)建自己的基礎(chǔ)設(shè)施的技術(shù)公司。
黃仁勛稱,「人們對ChatGPT的熱情讓商界領(lǐng)袖們看到了人工智能的力量。但是現(xiàn)在,它主要是一個通用軟件。其真正價值的實現(xiàn),還需要根據(jù)公司自身的需求量身定做,這樣就可以改進自家的服務(wù)和產(chǎn)品。」
英偉達(dá)奪GPU市場霸主
New Street Research稱,英偉達(dá)占據(jù)了95%圖形處理器的市場份額。
在費城證券交易所半導(dǎo)體指數(shù)中,英偉達(dá)股今年已經(jīng)上漲42%,表現(xiàn)最好。
投資者紛紛投向英偉達(dá),押注在對ChatGPT等人工智能系統(tǒng)的需求將推高該公司產(chǎn)品的訂單,使其再次成為全球市值最高的芯片制造商。
一直以來,不管是成為頂流的ChatGPT,還是Bard、Stable Diffusion等模型,背后都是由一個大約價值1萬美元的芯片Nvidia A100提供算力。
英偉達(dá)A100能夠同時進行許多簡單的計算,對訓(xùn)練和使用神經(jīng)網(wǎng)絡(luò)模型非常重要。
A100背后的技術(shù)最初用在游戲中渲染復(fù)雜的3D圖形。而現(xiàn)在,其目標(biāo)是處理機器學(xué)習(xí)任務(wù)和在數(shù)據(jù)中心運行。
投資者Nathan Benaich表示,A100目前已成為人工智能專業(yè)人士的「主力」。他的報告還列出了使用 A100超級計算機部分公司的名單。
機器學(xué)習(xí)任務(wù)可能會占用整臺計算機的處理能力,有時會持續(xù)數(shù)小時或數(shù)天。
這意味著,那些擁有一款暢銷AI產(chǎn)品的公司往往需要購買更多的GPU來應(yīng)對訪問高峰期,或改進其模型。
除了卡上可以插入現(xiàn)有服務(wù)器的單個A100之外,許多數(shù)據(jù)中心還使用一個包含8個A100圖形處理器的系統(tǒng)。
這個系統(tǒng),便是Nvidia DGX A100,單套系統(tǒng)售價高達(dá)20萬美元。
英偉達(dá)周三表示,將直接出售DGX系統(tǒng)的云訪問權(quán)限,這可能會降低研究人員的入門成本。
那么運行新版必應(yīng)需要付出怎樣的成本?
New Street Research的一項評估發(fā)現(xiàn),必應(yīng)搜索中基于OpenAI的ChatGPT模型可能需要8個GPU才能在不到一秒鐘的時間內(nèi)給出一個問題的答案。
按照這個速度,微軟需要超過2萬臺8個GPU服務(wù)器才能將這個模型部署到每個人手中。
那么微軟可能會花費40億美元的基礎(chǔ)設(shè)施開支。
這僅是微軟,如果想要達(dá)到谷歌每日查詢規(guī)模,即每天提供80億-90億個查詢,就需要花費800億美元。
再比如,最新版本的Stable Diffusion,在256個A100圖形處理器,或32臺DGX A100進行計算200,000小時。
Stability AI的首席執(zhí)行官Mostaque表示,按照市場價格計算,僅訓(xùn)練該模型就需要花費60萬美元。與競爭對手相比,這個價格非常便宜。這還不包括推斷或部署模型的成本。
黃仁勛在接受采訪時表示,
就這類模型所需的計算量而言,Stability AI的產(chǎn)品實際上并不昂貴。
我們采用了原本需要10億美元才能運行CPU的數(shù)據(jù)中心,然后將其縮小為1億美元的數(shù)據(jù)中心。現(xiàn)在,這1億美元數(shù)據(jù)中心放在云端由100家公司共同分擔(dān),都不算什么。
英偉達(dá)GPU可以讓初創(chuàng)企業(yè)以較成本訓(xùn)練模型。現(xiàn)在你可以構(gòu)建一個大型語言模型,比如GPT,大概需要1000萬到2000萬美元。這真的,真的很實惠。
2022人工智能現(xiàn)狀報告稱,截至2022年12月,超過2.1萬份開源AI論文使用了英偉達(dá)芯片。
國家人工智能計算指數(shù) (State of AI Compute Index) 中的大多數(shù)研究人員使用的是2017年推出的英偉達(dá)芯片V100,但A100在2022年快速增長,成為使用頻率排在第三的芯片。
A100最激烈的競爭可能是它的繼任者H100,2022年推出并已開始量產(chǎn)。事實上,英偉達(dá)周三表示,在截至1月份的季度,H100的收入超過了A100。
目前來看,英偉達(dá)正在乘坐著AI的快車向「錢」沖刺了。