Red Hat CEO談人工智能舉措和源代碼混亂
在今年早些時候的Red Hat Summit峰會上,Red Hat通過OpenShift AI深化了平臺功能,可以讓組織將更多人工智能工作負載添加到OpenShift上的應(yīng)用組合。
此舉是對Red Hat目標(biāo)的一個自然延伸。Red Hat的目標(biāo)是要成為應(yīng)用開發(fā)人員和基礎(chǔ)設(shè)施運營商在跨公有云、私有云以及網(wǎng)絡(luò)邊緣的分布式IT環(huán)境中構(gòu)建和運行應(yīng)用的首選平臺。
Red Hat通過OpenShift AI為創(chuàng)建生產(chǎn)型AI和機器學(xué)習(xí)模型提供了標(biāo)準(zhǔn)化的基礎(chǔ)。Red Hat還與IBM合作開發(fā)了Ansible Lightspeed,IBM也對其Watson Code Assistant進行訓(xùn)練來編寫Ansible自動化手冊。
然而,Red Hat的AI舉措在某種程度上被開源社區(qū)對于Red Hat限制客戶訪問Red Hat Enterprise Linux (RHEL)源代碼的回應(yīng)所掩蓋了。Red Hat是在Red Hat Summit峰會大約一個月之后宣布這個決定的,目的是防止重建者在不增加軟件價值的情況下從RHEL代碼中獲利。
Red Hat公司首席執(zhí)行官Matt Hicks談到了Red Hat公司為支持在混合云環(huán)境中使用生成式AI以及MLOps工具所做出的努力,此外他還對RHEL源代碼的混亂局面以及Red Hat如何解決社區(qū)對這個決定的擔(dān)憂,表達了他的觀點。
您能否解讀一下最近Red Hat Summit峰會上發(fā)布的一些重要公告以及這些公告對于Red Hat未來發(fā)展的意義?
Hicks:我將從人工智能開始,然后再返回來,因為我認為AI本質(zhì)上將是一種混合工作負載,這一點已經(jīng)變得非常清楚。你可能會在大型環(huán)境中訓(xùn)練模型,然后在盡可能靠近用戶的地方運行這些模型。長期以來,我們一直相信開放式的混合云,這是一種令人興奮的工作負載,可以讓客戶接受混合架構(gòu)。
像ChatGPT這樣的熱點讓大多數(shù)企業(yè)客戶開始試圖弄清楚AI會給他們的業(yè)務(wù)帶來怎樣的影響,讓他們思考如何才能做好混合,而我們在這次峰會上發(fā)布的公告,大部分內(nèi)容都是關(guān)于為混合奠定基礎(chǔ)的,無論是傳統(tǒng)應(yīng)用、云原生應(yīng)用還是AI工作負載。
我們通過幾種不同的方式來做到這一點,首先是我們正在做的安全供應(yīng)鏈方面工作。正如你所知,技術(shù)堆棧正在快速變化,因此當(dāng)你交付基礎(chǔ)的時候,無論是在本地、公有云中還是最終走向邊緣,了解基礎(chǔ)的來源及其安全性都是至關(guān)重要的,尤其是當(dāng)你把一些東西遷移出數(shù)據(jù)中心的時候。
Service Interconnect是我們公布的第二部分內(nèi)容。Service Interconnect讓應(yīng)用可以更輕松地通過SSH通道和VPN連接到混合云中的組件。我們對此感到非常興奮,因為我們相信,AI不會是單獨存在的,它要與應(yīng)用一起運行,而這些應(yīng)用必須從訓(xùn)練環(huán)境開始就是和你的業(yè)務(wù)運行環(huán)境互連的。
第三部分是開發(fā)者中心。我們已經(jīng)看到許多使用OpenShift的企業(yè)在構(gòu)建自己的門戶,來收集他們的資產(chǎn),并向他們的開發(fā)人員指出他們應(yīng)該從哪里開始,例如要使用的圖像和服務(wù)。這非常常見,如果你有了一個安全的基礎(chǔ),而且你構(gòu)建了跨多個位置的應(yīng)用,那么能夠發(fā)布和使用這些應(yīng)用以支持更廣泛的開發(fā)團隊也是同樣重要的。
如何解決AI帶來的一些挑戰(zhàn),例如可解釋性,特別是具有數(shù)十億甚至數(shù)萬億參數(shù)的大型語言模型?
Hicks:這包括兩個部分——一個部分是我們在做的,另一部分取決于模型創(chuàng)建者。我要講講我們和IBM在Ansible Lightspeed方面所做的工作,主要是為了提供特定領(lǐng)域的AI生成功能,你可以要求該功能提供內(nèi)容,我們會為你生成相應(yīng)的內(nèi)容。ChatGPT的應(yīng)用非常廣泛,它非常具體并且非常適合Ansible。
關(guān)于你提的問題,我們強調(diào)的事情之一是來源,特別是AI提供建議的來源,因為我們從事的是開源的業(yè)務(wù),許可、版權(quán)和商標(biāo)規(guī)則都很重要——你是不能夠隨心所欲地提取代碼,然后放進其他任何代碼中。我們希望確保,我們展示了我們所能做到的。
現(xiàn)在這個問題實際上發(fā)生在兩個堆棧上。我們借助OpenShift可以幫助支持DevOps中的一整套工作——源代碼管理、同行評審、代碼發(fā)布、標(biāo)記、了解發(fā)布模塊、管道,然后發(fā)布代碼,OpenShift在這方面做得很好。我們可以利用整個集合并將代碼從筆記本電腦轉(zhuǎn)移到生產(chǎn)環(huán)境中。
AI模型并沒有那么不同。就原則要求來說,你需要了解你一開始就使用的模型。如果是生成式AI,那么你需要確切地知道你引入了哪些數(shù)據(jù),以及你如何訓(xùn)練這些數(shù)據(jù),或者進行細化訓(xùn)練或提示工程。你需要能夠跟蹤輸出內(nèi)容,并在將其發(fā)布到生產(chǎn)環(huán)境之前對其進行測試,因此如果結(jié)果發(fā)生變化,你就會知道它是來自哪里的。這個部分很棘手,因為數(shù)據(jù)變化如此之快,以至于你無法只是發(fā)布數(shù)據(jù)而不重新訓(xùn)練數(shù)據(jù)。對數(shù)據(jù)的再訓(xùn)練和代碼生成一樣,都是持續(xù)不斷的。
因此,我們在OpenShift AI上所做的就是MLOps——提取數(shù)據(jù)、訓(xùn)練模型,并使用與代碼非常相似的管道。但是你需要有一個基礎(chǔ)模型,這就引出了模型最初是如何訓(xùn)練的問題,這是Red Hat本身并不做的事情,而是由IBM、Meta、OpenAI和其他模型生成器完成的,此外Hugging Face也有很多開源模型生成器。
對IBM來說,他們會嚴格控制自己的模型,因為這是Ansible特定的領(lǐng)域。他們會嚴格控制訓(xùn)練對象,以便最終能夠驅(qū)動核心歸因。有兩個不同的陣營——有些陣營對所有公開可用的內(nèi)容進行訓(xùn)練,為你提供大量參數(shù)模型,其中歸因始終是一個挑戰(zhàn)。然后是Hugging Face,它有很多專門的模型,這些模型可能從基礎(chǔ)模型開始,但僅限于領(lǐng)域之內(nèi)。
我們的目標(biāo)是確保我們能夠?qū)⑦@種原則添加到你一開始的內(nèi)容之中。你在數(shù)據(jù)方面改變了什么?你是如何重新訓(xùn)練的?結(jié)果如何?在哪里發(fā)布?現(xiàn)在有很多訓(xùn)練,但在未來一兩年內(nèi),我們認為我們將更多地進入推理領(lǐng)域,而迭代方式則變得至關(guān)重要。
除了IBM之外,是否有計劃與市場上的其他參與者合作?此外,Red Hat與那些也具有MLOps功能的超大規(guī)模企業(yè)有著深厚的關(guān)系——您對競爭格局有何看法?
Hicks:我們不做模型的原因之一,就是我們想確保我們是一家平臺公司。我們的工作是以盡可能最好的方式運行最好的模型。我們?nèi)绾问褂肦HEL和OpenShift將模型(無論是哪一個模型)橋接到Nvidia、英特爾或者是AMD的硬件以驅(qū)動訓(xùn)練和推理?因為不涉足模型,這讓我們天然地成為了所有人的合作伙伴,而且這實際上也是一項關(guān)于硬件的聲明。我們?nèi)绾尾拍艹浞值乩肙penShift分布式計算的訓(xùn)練環(huán)境,然后進行推理,很多時候更接近核心RHEL或更小的OpenShift實例。所以,這是第一層。
看看OpenShift AI就會發(fā)現(xiàn),第二層是我們與許多其他公司展開合作的地方,這些公司添加了專門的功能,無論是關(guān)注函數(shù)數(shù)組的Starburst還是其他公司。IBM在Watsonx上所做的工作令人感到興奮。他們大量使用了OpenShift AI,從一開始他們就對OpenShift很滿意。我們的目標(biāo)是確保我們作為一家平臺公司是具有中立性和獨立性的,很高興我們能夠為IBM提供服務(wù),但同時我們也會有其他的合作伙伴,因為這個領(lǐng)域有太多的專業(yè)化技術(shù)和利基產(chǎn)品了。
我最近見到了SUSE公司的首席執(zhí)行官,我們談到了Red Hat最近關(guān)于限制其客戶訪問RHEL源代碼的決定。Red Hat高管已經(jīng)撰寫了很多文章來解釋這么做的理由,那么您是如何向客戶解釋這個問題并打消社區(qū)對這個決定的擔(dān)憂呢?
Hicks:我將通過兩種方式解決這個問題。關(guān)于社區(qū)的擔(dān)憂,我認為這其中有一半是人們才剛剛開始意識到我們是帶來了RHEL的訪問路徑,無論是供團隊使用的RHEL還是可供非生產(chǎn)使用的多個實例,或者是供個人和愛好者使用的免費RHEL。我們的首要目標(biāo)是,如果你是Linux的貢獻者,我們絕不想妨礙你使用我們的產(chǎn)品。我認為我們可能在一年前就消除了很多這樣的障礙。隨著人們越來越多地使用RHEL,還有改進的空間嗎?當(dāng)然,這可以確保RHEL可供受眾使用。
當(dāng)我們接觸到那些想要構(gòu)建專有Linux社區(qū)或者從我們已經(jīng)完成的一些工作開始著手、但朝不同方向發(fā)展的社區(qū)群體時,我們的觀點是,就下一個版本的RHEL而言,CentOS Stream提供了你所需的一切。如果你想對其進行更積極的改進,F(xiàn)edora可以為你提供所需的一切。如果我們自己選擇的話,你的貢獻可以流入RHEL。
RHEL的逐位重建對我們來說并不適用。現(xiàn)在,有人總是可以進入CentOS,所有代碼都可以重新組合,但我們對Linux發(fā)行版的偏好是添加一些新穎的或者專門的內(nèi)容,以前所未有的方式使發(fā)行版變得更好。
對于我們的客戶來說,他們中的大多數(shù)人與社區(qū)建設(shè)者就像生活在不同的世界。我們的RHEL源代碼政策非常好地涵蓋了我們的客戶群,因為如果你作為客戶需要源代碼,你就會得到它們。我們有使用過RHEL和CentOS的客戶,這對他們來說無疑是一個決策點。但Linux是地球上可用性最高的操作系統(tǒng),因此他們有很多選項可供選擇。我們始終希望確保能夠通過RHEL為他們提供服務(wù),但這并不是一項真正的客戶挑戰(zhàn)。
我想說的挑戰(zhàn)是,社區(qū)感覺我們從他們那里拿走了一些東西。其中一半原因是他們對CentOS Stream不太熟悉,也不熟悉RHEL的使用方式。我們從事開源已經(jīng)有一段時間了,你在開源中所做的任何改變往往都會引起非常強烈的反應(yīng)。我們?nèi)匀粓猿珠_源——我們?nèi)匀婚_源我們所做的一切,我們?nèi)匀粸槲覀冑嵉拿恳幻涝龀鼍薮蟮呢暙I。
在您給員工關(guān)于最近裁員的信中,提到了Red Hat關(guān)注真正擅長的事情的重要性。您能詳細說明一下這些事情是什么,以及您希望實現(xiàn)什么嗎?
Hicks:這是一個很好的問題,我?guī)缀趺看卧诠緯h開始的時候都會說,“放心,我們是一家平臺公司”。我們將定位在硬件之上,在邊緣世界中,在數(shù)據(jù)中心外新整合的設(shè)備上。我們將連接到應(yīng)用,無論是傳統(tǒng)應(yīng)用還是新的云原生應(yīng)用,然后你就可以擁有AI工作負載。
從RHEL時代到JBoss中間件,再到OpenShift和分布式計算,我們所做的工作就是確保想要使用我們平臺進行構(gòu)建的開發(fā)人員擁有盡可能廣泛的影響力。這很重要,因為現(xiàn)在有很多事情都在發(fā)生變化。看看邊緣和AI的交叉點,想要成為一家平臺公司,我們就必須服務(wù)于這個市場和此類工作負載,這意味著我們必須在工程和銷售上有所投入。
我們擁有這個令人難以置信的機會,讓Linux、OpenShift和Ansible在企業(yè)中取得成功。但數(shù)據(jù)中心的邊界正在發(fā)生變化,新技術(shù)正在改變企業(yè)構(gòu)建事物的方式。這是我們要面對的下一個機會,從數(shù)據(jù)中心到云還有大量的工作要做,但我們必須堅持不懈地專注于成為一個平臺,并為這些用例提供服務(wù)。
這就是我們想要做得很好的事情,其中一些工作是在操作系統(tǒng)領(lǐng)域,例如保護軟件供應(yīng)鏈、PyTorch優(yōu)化或者Nvidia集成等領(lǐng)域;還有一些工作會涉及分布式計算,這就是我們通過OpenShift所做的事情,以及圍繞Ansible編排方面還有很多的工作要做。
我們肯定會投資這三個領(lǐng)域之外的其他領(lǐng)域,但如果我的工作做得好,你永遠不會看到我們投資于那些無法追溯到這個平臺用例的領(lǐng)域。我認為,現(xiàn)在對我們來說這是一個相當(dāng)大的市場,我們了解這個市場的動態(tài),我們知道如何向這個市場進行銷售,而且我們擁有這個市場中的人才,這些不斷發(fā)展的領(lǐng)域中有足夠的機會值得我們關(guān)注。