麥肯錫合伙人:生成式AI有助于解決云遷移中的各種難題
麥肯錫公司合伙人Bhargs Srivathsan近日在新加坡召開的會議上表示,只要運用得當,生成式AI技術有望將云遷移工作量減少30%到50%。
Srivathsan認為,“目前的進度只能說才剛剛邁出第一步。隨著大語言模型(LLM)的發展成熟,將工作負載遷移至公有云的時間表將不斷縮短、遷移過程效率也能隨之提升。”
她建議組織先使用大語言模型對系統內的基礎設施進行摸底,解析其中的短板與優勢,再在工作負載轉移完成后繼續應用AI工具查看遷移是否切實有效。
另外,還可以利用大語言模型完成更多相關工作,例如編寫架構審查委員會指南等說明材料。
這位合伙人表示,盡管不少企業才剛剛開始考慮采用AI技術,但麥肯錫所投資的企業中已經有40%在更新其IT投入。
Srivathsan認為,生成式AI與云之間屬于“共生”關系。
“必須承認,如果沒有公有云的普及、就不可能把生成式AI真正帶入生活。而與之對應,生成式AI也能切實加快公有云遷移、并幫助用戶從原有公有云中解鎖脫離。”
在Srivathsan看來,生成式AI的四大核心用例分別是內容生成、客戶參與、創建合成數據、以及編寫代碼。當然,這里的編寫代碼并非從零開始完成軟件開發。生成式AI的編碼能力主要體現在接手員工離職后無人熟悉的遺留代碼,或者是將原有代碼轉換為新的語言形式。
她還強調,之所以說公有云比嘗試內部自建模型更加靠譜,是因為企業用戶往往不具備充足的GPU儲備。而且市面上現成商用模型的成本也比自行訓練更加低廉。
Srivathsan指出,對于身處受監管行業、掌握大量專有數據或者擔心知識產權遭到侵犯的用戶,還可以設置相應的護欄。
在她看來,大語言模型在未來五、六年時間內將主要運行在超大規模基礎設施環境當中,直到模型發展成熟。而且跟很多人想象中不同,其實生成式AI的實現并不一定壓根那么夸張的算力儲備,畢竟很少有用例會對延遲提出如此嚴苛的要求。
也就是說,除非是特斯拉上運行的自動駕駛功能、或者負責指揮制造車間實時運行的軟件,否則確實沒必要把硬件堆得太滿。
另外,多數情況下也沒必要使用定制或大規模模型。
這位麥肯錫合伙人評論稱,“很多企業都以為自己需要買輛超級跑車來送披薩。當然用不著嘍,真正符合需求的模型往往沒那么復雜、也沒那么大。舉例來說,生成客服支持腳本肯定沒必要動用650億參數的大體量模型。”
但她同時給出建議,如果開發人員正在訪問自己本不該接觸到的非專有模型或數據,則務必要在組織內外之間添加API網關來建立起“實時警報”機制。