成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

剛剛,三名谷歌Vision Transformer作者官宣加入OpenAI

人工智能 新聞
在谷歌 DeepMind 工作期間,三人就是密切的合作伙伴,共同參與了 ViT 等重要研究。之后,他們將一起建立 OpenAI 蘇黎世辦事處。

最近,OpenAI 又迎來了新的人事變動,但這次不是某個技術大牛離職,而是從谷歌挖來了一些新鮮血液。

這些「新人」來自谷歌 DeepMind 的蘇黎世辦事處,包括資深研究科學家 Xiaohua Zhai(翟曉華)、研究科學家 Lucas Beyer 和 Alexander Kolesnikov。在谷歌 DeepMind 工作期間,三人就是密切的合作伙伴,共同參與了 ViT 等重要研究。之后,他們將一起建立 OpenAI 蘇黎世辦事處。

圖片

圖片

OpenAI 高管在周二的一份內部備忘錄中告訴員工,三人入職后將從事多模態 AI 研究。

在 DeepMind 工作期間,Beyer 似乎一直在密切關注 OpenAI 發布的研究成果以及該公司卷入的公共爭議,他經常在 X 上向自己的 7 萬多名粉絲發布相關信息。去年,當首席執行官 Sam Altman 被 OpenAI 董事會短暫解雇時,Beyer 發帖稱,他目前讀到的關于解雇的「最合理」解釋是,Altman 同時參與了太多其他初創公司的工作。

圖片

在競相開發最先進的人工智能模型的同時,OpenAI 及其競爭對手也在激烈競爭,從世界各地招聘有限的頂尖研究人員,通常為他們提供接近七位數或更高的年薪。對于最搶手的人才來說,在不同公司之間跳槽并不罕見。

例如,Tim Brooks 曾是 OpenAI 的 Sora 負責人,最近他離職前往 DeepMind 工作。不過,高調挖角的熱潮遠不止 DeepMind 和 OpenAI。今年 3 月,微軟從 Inflection AI 公司挖走了其人工智能負責人 Mustafa Suleyman 以及該公司的大部分員工。而谷歌斥資 27 億美元將 Character.AI 創始人 Noam Shazeer 拉回麾下。

在過去幾個月里,OpenAI 的一些關鍵人物相繼離職,有的加入了 DeepMind 和 Anthropic 等直接競爭對手,有的創辦了自己的企業。OpenAI 聯合創始人、前首席科學家 Ilya Sutskever 離職后,創辦了一家專注于人工智能安全和生存風險的初創公司 Safe Superintelligence。OpenAI 前首席技術官 Mira Murati 于 9 月份宣布離職,據說她正在為一家新的人工智能企業籌集資金。

今年 10 月,OpenAI 表示正在努力向全球擴張。除了新的蘇黎世辦事處,該公司還計劃在紐約市、西雅圖、布魯塞爾、巴黎和新加坡開設新的分支機構。除舊金山總部外,該公司已在倫敦、東京和其他城市設立了分支機構。

LinkedIn 上的資料顯示,Zhai、Beyer 和 Kolesnikov 都住在蘇黎世,蘇黎世已成為歐洲一個相對突出的科技中心。蘇黎世是 ETH (蘇黎世聯邦理工學院)的所在地,ETH 是一所公立研究型大學,擁有全球知名的計算機科學系。據《金融時報》今年早些時候報道,蘋果公司還從谷歌挖走了一些人工智能專家,在「蘇黎世的一個秘密歐洲實驗室」工作。

圖片

也有人猜測,OpenAI 之所以在蘇黎世設立辦事處,是因為三個人都不愿意搬家。

緊密合作的三位科學家

從已發表的研究看,這三位研究者經常從事同一個項目的研究,并且他們也做出了一些非常重要的研究成果,其中一些被 AI 頂會作為 Spotlight 和 Oral 論文接收。

Xiaohua Zhai(翟曉華)

圖片

個人主頁:https://sites.google.com/view/xzhai

Google DeepMind(蘇黎世)的資深研究科學家和管理者。他領導著蘇黎世的一個多模態研究團隊,其研究重心是多模態數據、開放權重模型和包容性。

根據其領英簡歷,他于 2014 年在北京大學取得了計算機科學博士學位。之后曾在谷歌從事了三年軟件工程師的工作。2017 年 12 月,他加入 DeepMind 擔任研究科學家,并一直在此工作了 7 年。

目前,翟曉華在 Google Scholar 上的被引量已經達到了 6 萬多,其中大部分被引量來自他們三人共同參與的 ViT 論文《An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale》。

圖片

Lucas Beyer

圖片


Lucas Beyer 是 DeepMind 研究科學家。

個人博客:https://lucasb.eyer.be/

他在 2018 年于德國亞琛工業大學完成了自己的高等學業,期間曾在谷歌以實習生身份從事過研究工作,也在 Kindred.ai 擔任過 AI 工程師,在德國亞琛工業大學擔任過研究助理。

畢業后,他正式加入谷歌,先后在谷歌大腦與 DeepMind 從事研究工作。

他在博客中寫到:「我是一名自學成才的黑客和科學家,致力于創造非凡事物。目前在瑞士蘇黎世生活、工作、戀愛和玩耍。」

圖片

Alexander Kolesnikov

圖片

Alexander Kolesnikov 已經更新了自己的領英頁面,他曾經也是 DeepMind 的研究科學家。

個人主頁:https://kolesnikov.ch

他于 2012 年碩士畢業于莫斯科國立大學,之后在奧地利科學技術研究所取得了機器學習與計算機視覺博士學位。類似地,2018 年博士畢業后,他也先后在谷歌大腦和 DeepMind 從事研究工作。

圖片

出色的研究成果

很顯然,這三位研究者是一個非常緊密的研究團隊,也因此,他們的很多研究成果都是三人共同智慧的結晶(當然還有其他合作者),我們下面將其放在一起介紹。

首先必須提到的就是這篇論文:

圖片


  • 論文標題:An Image is Worth 16x16 Words: Transformers for Image Recognition at Scale
  • 論文地址:https://arxiv.org/pdf/2010.11929
  • 項目地址:https://github.com/google-research/vision_transformer

這篇就是大名鼎鼎的 Vision Transformer(ViT)論文,其中提出可以使用 Transformer 來大規模地生成圖像,機器之心也曾做過報道,參閱《NLP/CV 模型跨界進行到底,視覺 Transformer 要趕超 CNN?》。目前,這篇論文的引用量已經接近 5 萬,這三位研究者均是共同技術一作。

圖片

此后,他們還研究了 ViT 的 Scaling Law。

圖片


  • 論文標題:Scaling Vision Transformers
  • 論文地址:https://arxiv.org/pdf/2106.04560

通過擴大和縮小 ViT 模型和數據的規模,他們研究了錯誤率、數據和計算之間的關系。在此過程中,他們還對 ViT 的架構和訓練進行了改進,減少了內存消耗并提高了生成模型的準確性。

圖片

另外,他們也為 ViT 開發了一些改進版本,對其性能或效率等不同方面進行了優化,比如能適應不同圖塊大小的 FlexiViT,參閱論文《FlexiViT: One Model for All Patch Sizes》。

他們也探索了另一些架構創新,比如他們在論文《MLP-Mixer: An all-MLP Architecture for Vision》中提出了一種用于視覺任務的純 MLP 架構 MLP-Mixer;在論文《Big Transfer (BiT): General Visual Representation Learning》中,他們重新審視了在大型監督數據集上進行預訓練并在目標任務上微調模型的范式,并通過擴大了預訓練的規模提出了所謂的 Big Transfer 方案。

他們也開發了一些在當時都達到了 SOTA 的開發模型,比如 PaliGemma,這是一個基于 SigLIP-So400m 視覺編碼器和 Gemma-2B 語言模型的開放式視覺語言模型 (VLM),其在同等規模下的表現非常出色。而在論文《Sigmoid Loss for Language Image Pre-Training》中,他們僅使用 4 塊 TPUv4 芯片,在 2 天時間內就訓練出了一個在 ImageNet 上實現了 84.5% 的零樣本準確度的模型。

圖片

他們在計算機視覺方面的很多研究成果都統一在了 Google 的 Big Vision 項目中,參閱 https://github.com/google-research/big_vision

他們近期的研究重心是統一、簡化和擴展多模態深度學習,比如:

  • UViM: A Unified Modeling Approach for Vision with Learned Guiding Codes,該論文提出了一種建模多樣化計算機視覺任務的統一方法。該方法通過組合使用一個基礎模型和一個語言模型實現了互相增益,從而在全景分割、深度預測和圖像著色上取得了不錯的效果。
  • Tuning computer vision models with task rewards,這項研究展示了強化學習在多種計算機視覺任務上的有效性,為多模態模型的對齊研究做出了貢獻。
  • JetFormer: An Autoregressive Generative Model of Raw Images and Text,這是上個月底才剛剛發布的新研究成果,其中提出了一種創新的端到端多模態生成模型,通過結合歸一化流和自回歸 Transformer,以及新的噪聲課程學習方法,實現了無需預訓練組件的高質量圖像和文本聯合生成,并取得了可與現有方法競爭的性能。

當然,這三位研究者多年的研究成果遠不只這些,更多成果請訪問他們各自的主頁。

看來,OpenAI 這次是真挖到寶了,難怪有人說谷歌失去這三位人才會是一個戰略失誤。

圖片

責任編輯:張燕妮 來源: 機器之心
相關推薦

2025-06-26 15:07:54

OpenAIMeta模型

2025-06-26 09:00:37

2024-09-02 12:48:07

2024-05-15 10:38:55

OpenAIGPT-4oIlya

2025-02-21 15:18:20

2024-03-12 13:33:40

2024-10-05 11:03:10

2023-07-14 10:13:23

馬斯克AI

2024-08-26 08:00:00

模型AI

2024-04-02 11:37:59

2024-04-03 13:05:20

數據訓練

2024-01-18 15:17:56

谷歌云計算三星

2024-12-13 09:40:00

2011-09-07 16:03:50

微軟

2024-03-12 13:14:40

2024-08-23 11:53:24

2025-05-08 16:40:27

OpenAICEOFacebook

2024-11-27 22:13:34

2023-08-18 13:53:09

模型智能

2024-10-10 13:01:43

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 亚洲激情在线观看 | 国产精品不卡 | 欧美中文字幕一区二区三区亚洲 | 国产夜恋视频在线观看 | 亚洲精品乱码久久久久久按摩观 | 中文字幕亚洲视频 | 久草在线| 欧美精品久久久 | 在线观看免费福利 | 国产乱码精品一品二品 | 亚洲色图50p | av天空| 999国产视频 | 日韩av在线免费 | 视频一区在线 | 中文字幕精品一区二区三区精品 | 激情av| 久久免费香蕉视频 | 成人日韩精品 | 欧美中文视频 | 黄网站免费入口 | 男女免费在线观看视频 | 羞羞视频在线网站观看 | 国产伦精品一区二区三区照片91 | 草比av| 免费毛片在线 | 免费在线成人 | 国产精品免费看 | 999观看免费高清www | 影音先锋成人资源 | 亚洲欧洲精品成人久久奇米网 | 香蕉大人久久国产成人av | 精品少妇v888av | 亚洲一区二区免费 | 国产精品久久精品 | 国产成人91 | 成年人免费在线视频 | 日韩欧美一区二区三区四区 | 久草a√ | 国产精品高潮呻吟久久av野狼 | 婷婷国产一区二区三区 |