大佬跳槽,微軟谷歌大戰!近一個月前的文章竟是篇「神預言」
這篇1月27日的分析文章,發出之后不到一周,谷歌和微軟就相繼官宣,要把AI聊天機器人整合進搜索引擎。
回頭再看,到處都是回旋鏢。
忽然,就開竅了?
對于發展AI,科技巨頭們的態度一向慎之又慎。然而ChatGPT的橫空出世,讓它們酸出天際。
人工智能發展的基石,是谷歌、Meta和微軟這些大公司搭起來的。
然而現在,銳意進取的小公司正以讓人頭暈目眩的速度將AI推向大眾,打得這些巨頭措手不及。
面對著科技股的持續下跌,以及ChatGPT爆紅帶來的壓力,硅谷大廠們似乎在突然之間就「開竅」了——愿意承擔更多的「聲譽風險」。
作為時下最當紅的明星,ChatGPT已經幫OpenAI從微軟爸爸那里吸引了數十億美元的投資。
而ChatGPT本身,也很可能會被整合到微軟流行的辦公軟件全家桶中,向企業銷售。
根據《華爾街日報》對六位谷歌和Meta前任員工的匿名采訪,ChatGPT獲得的關注激增后,也給Meta和谷歌之類的科技巨頭造成了壓力,讓他們不再那么顧慮安全問題。
Meta員工透露,公司的內部備忘錄顯示,公司正催著加快AI的審批程序,趕快利用起最新的技術。
《紐約時報》報道,谷歌看到ChatGPT的繁榮景象之后,除了發布紅色代碼,還推出了「綠色通道」,縮短評估和減輕潛在危害的流程。
風險太大,等等再說
其實,早在ChatGPT亮相的三個月前,Meta就曾發布類似的聊天機器人。
但不同于ChatGPT五天后就破百萬的用戶量,這個叫做Blenderbot的聊天機器人非常無聊。
這一點,就連Meta的首席AI科學家Yann LeCun都不得不承認。
「熱天可以把狗放進冰箱里嗎?」「我不能和陌生人討論這些。」
最近,LeCun在一個論壇上解釋稱:「它之所以這么無聊,是因為我們把它做得很安全。」
他說,公眾的反應之所以不溫不火,是因為Meta對于內容審核「過于謹慎」了。
有一個陰謀論這么解釋:Blenderbot這么無聊是故意的。Meta可以制造更好的AI,也許有了更好的AI,但他們決定發布一個糟糕的AI。
是的,大型科技公司一直以來都面臨的一個問題是,對人工智能道德影響的審查機制,并不像隱私或數據安全那樣成熟。
通常情況下,研究人員和工程師團隊會希望他們提出的技術創新,能夠被更快地做成產品進入到公眾的視野之中,或者融入公司現有的基礎設施。
不難想象,在推進的過程中,很容易就會與公司中致力于「負責任的人工智能」的團隊發生沖突。
比如,在簽署為五角大樓無人機提供計算機視覺的合同Project Maven時,就有不少員工提出了抗議。
而一個可以給餐館打電話進行預訂,且不會透露自己是機器人的項目Duplex,也引發了員工的抵觸情緒。
為此,谷歌在2018年正式發布了人工智能「七項原則」。
文章地址:https://blog.google/technology/ai/ai-principles/
Cohere聯合創始人,曾在谷歌大腦工作了三年的Nick Frosst表示,像谷歌和微軟這樣的大公司,更多會專注于利用AI來改善他們現有商業模式。
畢竟,激進所帶來的「聲譽風險」,是巨頭們承受不起的。
尤其是在微軟的Tay遭遇慘敗后,他們就變得格外小心。
2016年,Tay上線不到一天就被火速封存。因為有人讓這個聊天機器人發起種族戰爭,并給納粹洗白。當時輿論一片嘩然。
2022年,Meta家的Galactica,在上線短短三天之后就被下了。網友紛紛指責它對科學研究的總結非常不準,而且有時還帶有偏見。
不過,大廠對此也有自己的看法。
Meta基礎人工智能研究部經理Joelle Pineau說:「人工智能的進展速度快得令人難以置信,而我們不僅需要確保高效的審查流程,而且還要做出正確的決定,并發布最適合我們社區的AI模型和產品。」
谷歌Lily Lin說:「我們相信,人工智能是一項基礎性和變革性的技術,對個人、企業和社區都非常非常大的作用。我們需要考慮這些創新可能產生的更廣泛的社會影響。我們會繼續在內部測試我們的AI技術,確保它是有用和安全的。」
微軟的溝通主管Frank Shaw表示,當微軟使用DALLE-2這樣的AI時,會與OpenAI合作,建立額外的安全緩解措施。
「微軟多年來一直致力于推動人工智能領域的發展,并且會公開指導用戶在我們的平臺上以負責任和道德的方式創建和使用這些技術。」
沒趕上熱乎的
但問題是,擔心來擔心去,自己轉眼間就被甩在了后面。
過去的2022年,可以稱為AIGC元年。我們見證了DALL-E 2、Stable Diffusion和ChatGPT的爆火。
尤其是在OpenAI發布ChatGPT之后,生成式人工智干掉谷歌的聲音此起彼伏——
眾所周知,ChatGPT可以用一種更加易懂的方式提供了簡單的答案,而不需要用戶去點擊各種鏈接。
不過,非常有趣的一點是,這些AI的底層技術,其實都是由谷歌這些巨頭開創的。
但近年來,這些大廠變得愈發神秘,他們會宣布新的模型或提供demo,但不會公布完整的產品。
與此同時,像OpenAI這樣的研究實驗室,卻「穩準狠」地推出了最新版本的AI。這也讓人們懷疑大廠們磨磨蹭蹭地究竟在干什么,比如谷歌語言模型LaMDA,就已經推出好幾年了。
于是,在這樣的大環境下,工程師們不得不面對,自己費盡心思研究的新技術卻始終無法被采用的挫敗感。
部分員工們表示,自己這幾年一直在建議將聊天功能融入搜索引擎之中,但并沒有得到反饋。
不過,他們也明白,谷歌有合理的理由不急于去改變自己的搜索產品。
畢竟,用明確的答案回應用戶的搜索,不僅會壓縮在線廣告的寶貴空間,而且但凡被用戶發現了問題,公司還需要承擔額外的責任。
當然,遭遇這個問題并不只有谷歌一家公司。
據知情人士透露,Meta的員工也不得不處理公司對不良公關的擔憂。
具體來說就是,在推出新產品或發表研究報告之前,員工必須回答有關公開其工作的潛在風險的問題,包括如果被公眾誤解了怎么辦。
OpenAI怎么就贏了?
對此,佐治亞理工學院計算機教授、機器學習專家Mark Riedl表示,從基礎的技術層面來講,ChatGPT可能不一定比谷歌或Meta更好。
但OpenAI有一個關鍵的優勢:把模型開放給公眾使用。
于是在過去的這兩年里,OpenAI就能夠源源不斷地收到來自用戶的真實反饋。
比如,給自己滿意的答案「贊」,或者「踩一下」那些感覺不恰當的。
而這就是讓ChatGPT變得如此強大的基石——「基于人類反饋的強化學習」(RLHF)。
相比之下,作為被挑戰者的谷歌搜索,在經過四分之一個世紀后,已經被廣告和試圖玩弄系統的營銷人員搞得臃腫不堪。
技術專家Can Duruk指出,「谷歌長期壟斷的地位,已經讓他們曾經令人信服的搜索體驗墮落成一個充滿垃圾的、由搜索引擎驅動的地獄。」
當然,還有一點也很重要——也就我們最初討論的「聲譽風險」。
一位谷歌員工表示,在公眾眼里,OpenAI比我們這些大廠更新、更激動人心,而且需要付出的代價也更少,就算搞砸了,也不會受到那么多批評和審視。
大佬出走,谷歌被逼到墻角
的確,在10年之前,谷歌就已經是這個領域無可爭議的老大了。
2014年,收購了頂級人工智能實驗室DeepMind。
2015年,開源了機器學習框架TensorFlow。
到了2016年,Pichai承諾將谷歌打造成一家「人工智能優先」(AI first)的公司。
然而,支撐著這些發展背后的人才,卻越來越不「安分」了。
在過去一年左右的時間里,不少大牛都跳到了更靈活的初創公司,比如OpenAI和Stable Diffusion。
包括Character.AI、Cohere、Adept、Inflection.AI和Inworld AI等等這些圍繞著大規模語言模型建立的初創公司,也都是出自谷歌頂級AI研究人員之手。
此外,還有使用類似模型開發聊天界面的搜索初創公司,如谷歌前高管Sridhar Ramaswamy經營的Neeva。
其中,Character.AI的創始人Noam Shazeer,Cohere的聯合創始人Aidan Gomez,更是研發Transformer以及其他核心機器學習架構的關鍵人物。
像谷歌和微軟這樣的大公司一般都專注于使用人工智能來改善他們龐大的現有商業模式,Nick Frosst說,他在谷歌大腦工作了三年,然后創立了Cohere,這是一家位于多倫多的初創公司,建立大型語言模型,可以為企業提供定制服務。他的聯合創始人之一,就是Aidan Gomez。
「這個領域的發展如此迅速,對我來說,領先的人是小公司并不奇怪,」Frosst說。
著名研究科學家David Ha在推特上說:「如果谷歌再不振作起來,開始發布自己的人工智能產品,就將作為訓練整整一代機器學習研究人員和工程師的『黃埔軍校』載入史冊。」
而這位大佬也在2022年離開谷歌大腦,加入了明星初創公司Stable Diffusion。
或許,時代可能真的要變了。
Rumman Chowdhury曾負責Twitter的機器學習倫理團隊,直到馬斯克在11月將其解散。
Chowdhury表示,由于像谷歌和Meta這樣的大廠需要爭相追趕OpenAI,因此那些批評家和倫理學家們,會越來越受冷遇。