詳解蘋果和微軟的AI集成策略
當OpenAI在其春季更新會議上宣布推出macOS的ChatGPT桌面應用時,人們不禁疑惑為什么它沒有先從Windows開始,畢竟,微軟是OpenAI的主要投資者,理應最早獲得新ChatGPT功能的訪問權限。
現在我們知道原因了,在Build會議上宣布的微軟新Copilot+ PC展示了一套深度集成到操作系統中的豐富功能,能夠無縫地使用設備和云端的AI模型,相比之下,目前僅適用于Mac的OpenAI ChatGPT桌面應用顯得微不足道。
蘋果和微軟都在嘗試將AI功能集成到它們的應用程序中,但策略各不相同,目前尚難斷言哪條路線圖會勝出,但目前來看,微軟似乎遙遙領先。
設備上的AI
蘋果的策略一直是打造具有前沿技術的非常精致的產品,并為未來的應用和軟件功能預留大量空間。
你可以在Vision Pro、新的iPad Pro M4,甚至是每年發布的MacBook和iPhone中看到這一點。新設備通常擁有比大多數人日常使用所需更多的內存和計算能力。
蘋果逐步發布操作系統更新和新功能以及軟件,以利用這些加速器和專用硬件。
例如,當M1芯片發布時,沒人想到要在Mac上運行大語言模型,但現在,已經有一整套庫和工具可以優化模型以在蘋果硅上運行,蘋果研究團隊也定期發布能夠在其設備上運行的模型。
然而,蘋果的方法問題在于設備上的GenAI還不夠成熟,盡管過去一年在這一領域取得了令人印象深刻的進展,但仍未達到設備上的模型足夠可靠以獨立執行多項任務的程度,這就是macOS的ChatGPT應用在蘋果找到運行云端模型的方法或設備上的AI達到無需云端模型的水平之前要填補的空白。
結果是各種AI工具的拼湊,這些工具無法無縫集成到操作系統中。
無縫的AI
另一方面,微軟專注于提供最前沿的AI技術,然后想辦法盡可能接近用戶。
首先,與OpenAI的投資和合作使微軟處于一個獨特的位置,可以將前沿模型集成到其產品中。
但微軟也通過支持開放模型如Llama和Mistral來擴大范圍,同時,微軟開始發布小語言模型(SLM)如Phi和Orca。
在世界經濟論壇上,微軟CEO Satya Nadella被問及他的公司是否過于依賴OpenAI,他的回答如下:
“我認為我們非常有能力控制自己的命運……我們的產品不是關于一個模型,我們關心擁有最好的前沿模型,今天是GPT-4,但我們也在Azure上有Mixtral作為服務模型,我們在某些地方使用Llama,我們有Phi,這是微軟最好的SLM,所以我們將擁有多樣化的能力和模型,我們將投資于這些模型,但我們將與OpenAI進行非常深入的合作。”
最后,微軟通過其Copilot品牌創建了一個抽象層,減少了對OpenAI的依賴。微軟用戶將在整個Windows中與Copilot互動。在幕后,AI助手將使用最適合任務的模型。
這些功能在Microsoft Build大會上得到了充分展示,新款Copilot+ PC展示了一系列AI功能,包括圖像創建、實時字幕、生產力工具以及讓人感到毛骨悚然的Recall功能。其中一些功能在設備上運行,一些在云端運行,還有一些在兩者之間分布。
這個領域將繼續發展,特別是微軟加倍努力將先進的ARM芯片帶入其筆記本電腦。硬件將變得更強大,設備上的大語言模型將變得更高效,而Copilot的后端模型將會更換而不影響用戶體驗。
這個演示給人留下了深刻的印象,以至于Stratechery的Ben Thompson將其形容為“類似MacBook Air”的產品,并表示“與蘋果的產品不同,實際上與AI有意義地集成,不僅今天看起來很有用,而且隨著開發者利用微軟的AI能力,這種基礎將變得更有用?!?/p>
微軟的特洛伊木馬?
在macOS版ChatGPT應用程序宣布后,一些用戶在社交媒體上嘲笑微軟花費100億美元在OpenAI上卻推出了一個macOS應用。
但鑒于Microsoft Build的公告,似乎ChatGPT已經成為微軟在蘋果生態系統中的特洛伊木馬。ChatGPT運行在Azure云上,ChatGPT與macOS和iOS的更深度集成將使微軟在蘋果用戶體驗中獲得更強的立足點。看起來Satya在這一回合贏了,但比賽還沒有結束,我們還要看看蘋果在6月的WWDC上會發布什么。