OpenAI CEO下場回應(yīng)「封口協(xié)議」,爭議還是到了股權(quán)利益上,奧特曼:我的鍋
自從 Ilya 和 超級對齊負責人 Jan 離職后,OpenAI 內(nèi)部還是心散了,后續(xù)也有越來越多的人離職,同時也引發(fā)了更多的矛盾。
昨天,爭議的焦點來到了一份嚴格的「封口協(xié)議」。
OpenAI 前員工 Kelsey Piper 爆料,任何員工的入職文件說明中都包含一項:「在離開公司的六十天內(nèi),你必須簽署一份包含『一般豁免』的離職文件。如果你沒有在 60 天內(nèi)完成,你的股權(quán)獲益將被取消?!?/p>
這份引發(fā)風浪的文件截圖,讓 OpenAI CEO 迅速下場回應(yīng):
我們從未收回任何人的既得權(quán)益,如果人們不簽署分離協(xié)議(或不同意不貶損協(xié)議),我們也不會這樣做。既得股權(quán)就是既得股權(quán)(句號)。
關(guān)于 OpenAI 如何處理股權(quán),山姆?奧特曼的其他回應(yīng)如下:
僅僅 15 分鐘后,爆料者再次質(zhì)疑并大膽提問:既然你已經(jīng)知道了,那么,此前員工的限制協(xié)議會取消嗎?
因為大部分人,想要的是一個明確的解決方案,而不只是歉意:
爆料者 Kelsey Piper 同時表示:「至于我這樣做是否對 Sam 不公平 —— 我的意思是,我認為這是 CEO 的職責之一。有時你不僅需要道歉,而且人們還會吹毛求疵,想要澄清,想要看到政策已經(jīng)改變的證據(jù)。」
去年有報道稱,OpenAI 員工薪酬中最常見的一種組合是:30 萬美元的固定基本工資,以及每年約 50 萬美元的 PPU(利潤參與單位)補助金,這是一種股權(quán)補償形式。也就是說,在 PPU 贈款的四年期中,大多數(shù) OpenAI 員工預(yù)計至少獲得 200 萬美元的股權(quán)薪酬。
如果消息為真,大部分「被離職」的前員工應(yīng)該都想「堅持到底」。
在這場風波之外,還有一條爭議同時進行:有關(guān) OpenAI 將如何處理安全和未來風險。
據(jù)多家媒體報道,隨著最近 Ilya Sutskever、Jan Leike 兩位超級對齊團隊的共同領(lǐng)導者離職,OpenAI 的超級對齊團隊已被解散。周五,Jan Leike 還發(fā)布了一系列帖子,怒斥 OpenAI 及其領(lǐng)導層忽視「安全」而偏愛「光鮮亮麗的產(chǎn)品」。
今天早些時候,OpenAI 聯(lián)合創(chuàng)始人 Greg Brockman 對該問題進行了長文回應(yīng)。
在這篇落款為「Sam and Greg」的文章中,Brockman 指出:OpenAI 已采取措施確保 AI 技術(shù)的安全開發(fā)和部署。
我們非常感謝 Jan 為 OpenAI 所做的一切,我們知道他將繼續(xù)從外部為 OpenAI 的使命做出貢獻。鑒于他的離開所引發(fā)的問題,我們想解釋一下我們是如何考慮整體戰(zhàn)略的。
首先,我們已經(jīng)提高了人們對 AGI 風險和機遇的認識,以便世界能夠更好地為其做好準備。我們多次展示了擴展深度學習的驚人可能性,并分析了其影響;在此類呼吁流行之前,我們就呼吁對 AGI 進行國際治理,并幫助開創(chuàng)了評估人工智能系統(tǒng)災(zāi)難性風險的科學。
其次,我們一直在為安全部署能力越來越強的系統(tǒng)奠定必要的基礎(chǔ)。首次使用一項新技術(shù)并不容易。例如,我們的團隊做了大量工作,以安全的方式將 GPT-4 推向世界,此后,我們根據(jù)部署過程中的經(jīng)驗教訓,不斷改進模型行為和濫用監(jiān)控。
第三,未來將比過去更加艱難。我們需要不斷提升我們的安全工作,以應(yīng)對每一個新模型的風險。去年,我們采用了「Preparedness Framework」,以幫助將我們的工作系統(tǒng)化。
現(xiàn)在是談?wù)撐覀內(nèi)绾慰创磥淼暮脮r機。
隨著模型的功能不斷增強,我們預(yù)計它們將開始與世界進行更深入的整合。用戶將越來越多地與由許多多模態(tài)模型和工具組成的系統(tǒng)進行交互,這些系統(tǒng)可以代表他們采取行動,而不是與一個只有文本輸入和輸出的單一模型對話。
我們認為,這些系統(tǒng)將給人們帶來極大的好處和幫助,而且有可能安全地提供這些系統(tǒng),但這需要大量的基礎(chǔ)工作。這包括圍繞它們在訓練過程中與什么聯(lián)系在一起的深思熟慮,解決困難問題(如可擴展的監(jiān)督)的方案,以及其他新型安全工作。在朝著這個方向發(fā)展的過程中,我們還不確定何時才能達到發(fā)布的安全標準,如果這將推遲發(fā)布時間,也沒關(guān)系。
我們知道,我們無法想象未來所有可能發(fā)生的情況。因此,我們需要一個非常嚴密的反饋回路、嚴格的測試、每一步的慎重考慮、世界一流的安全性,以及安全與功能的和諧統(tǒng)一。我們將繼續(xù)針對不同的時間尺度開展安全研究。我們還將繼續(xù)與各國政府和許多利益相關(guān)方就安全問題開展合作。
在通往人工智能的道路上,沒有行之有效的指南。我們認為,經(jīng)驗性的理解可以幫助我們指明前進的道路。我們相信,既要實現(xiàn)巨大的發(fā)展前景,也要努力降低嚴重的風險;我們非常認真地對待我們在這方面的角色,并仔細權(quán)衡對我們行動的反饋意見。
— Sam and Greg
但效果似乎不盡如人意,甚至受到了嘲諷:
AI 領(lǐng)域的活躍學者 Gary Marcus 也說:透明度勝于雄辯。
看起來,Greg Brockman 并不打算對政策或承諾方面做出更具體的回應(yīng)了。
在 Jan Leike 和 Ilya Sutskever 離開后,另一位 OpenAI 聯(lián)合創(chuàng)始人 John Schulman 已轉(zhuǎn)而負責超級對齊團隊正在做的工作,只是不再有一個專門的部門,而是一個松散關(guān)聯(lián)的團隊。嵌入公司各個部門的研究人員小組。OpenAI 將其描述為「更深入地整合(團隊)」。
爭議背后的真相是什么呢?也許 Ilya Sutskever 最清楚,但他選擇了體面離場,今后可能也不會再談起這件事。畢竟,他已經(jīng)有了「一個對個人而言非常有意義的項目」。