出品 | 51CTO技術棧(微信號:blog51cto)
就在昨晚,Meta冷不防就把自家的大模型發布前的決策步驟對外公開了。
“我們在開發和發布前沿AI時遵循的流程的概述,以確保我們在整個過程中監控和管理風險。我們的治理方法可以分為三個主要階段:計劃、評估和緩解、以及決策。
在任何階段的發現都可能通過我們的集中審查流程引發討論,這確保了高級決策者參與開發和發布生命周期的全過程。”
圖片
1.Meta:停止發布極高風險的AI模型
在一份新的政策文件中,Meta 表示,在某些情況下,它可能不會發布內部開發的高性能人工智能系統。
該文件被 Meta 稱為“前沿人工智能(Frontier AI)框架”,其中確定了兩種該公司認為風險過高的人工智能系統:“高風險”系統和“關鍵風險”系統。
根據 Meta 的定義,“高風險”和“極高風險”系統都能夠“協助”網絡安全、化學和生物攻擊,不同之處在于“極高風險”系統可能導致“在擬議的部署環境中造成無法緩解的災難性后果”。相比之下,高風險系統可能會使攻擊更容易實施,但成功的概率不如極高風險系統那么大。
在這里,我們談論的是哪種攻擊?Meta 給出了幾個例子,比如“對最佳實踐保護的企業級環境的自動端到端攻擊”和“高影響力生物武器的擴散”。Meta 承認,其文件中列出的可能災難遠非詳盡無遺,但包括 Meta 認為“最緊迫”的災難,以及發布強大的 AI 系統可能直接導致的災難。
2.現在的評估科學并不強大
令人有些驚訝的是,根據該文件,Meta 對系統風險的分類并非基于任何一項實證檢驗,而是基于內部和外部研究人員的意見,并接受“高級決策者”的審查。為什么?Meta 表示,現在評估科學“不足夠強大,無法提供明確的量化指標”來決定系統的風險性。
如果 Meta 確定某個系統具有高風險,該公司表示,它將在內部限制對系統的訪問,并且在實施緩解措施以“將風險降低到中等水平”之前不會發布該系統。另一方面,如果某個系統被視為具有嚴重風險,Meta 表示,它將實施未指定的安全保護措施,以防止系統被泄露,并停止開發,直到系統的危險性降低為止。
圖片
但風險和利益并存。Meta認為,通過在決定如何開發和部署先進AI時同時考慮利益和風險,可以以一種既保持該技術對社會的利益,又保持適當風險水平的方式將該技術提供給社會。
“雖然本框架的重點是我們在預測和緩解災難性結果風險方面的努力,但強調開發先進AI系統的最初原因是因為這些技術對社會的巨大潛在利益是很重要的。與量化風險一樣,量化AI的利益是一門不完美的科學。”
首先,風險和利益都是逐漸出現的,而且往往在不同的時間范圍內,因此技術的整體影響可能會隨著時間的推移而變化。
其次,許多影響很難量化。例如,訪問先進的AI模型對推進不同領域的科學研究有明顯的好處,但量化這些研究的價值極其困難,其他發現或變量也會影響研究的規模和影響。
即使對于可以分配收入生成或生產力提高百分比等具體結果的情況,通常也存在主觀判斷,即這些經濟利益對社會的重要性。
“雖然不可能消除主觀性,但我們認為考慮我們開發的技術的利益是很重要的。這有助于我們確保實現我們向社區提供這些利益的目標。它還推動我們專注于充分緩解我們識別的任何重大風險的方法,而不會消除我們最初希望提供的利益?!?/p>
3.下一步計劃
Meta期望更新前沿AI框架,以反映技術和我們對如何管理其風險和收益的理解的發展。“為此,有必要觀察模型在其部署環境中的表現,并監控AI生態系統的演變。這些觀察結果將反饋到我們評估已部署模型的緩解措施的充分性以及我們框架的有效性。我們將根據這些觀察結果更新我們的框架?!?/p>
文件稱,Meta正在跟蹤前沿AI能力和評估方面的最新技術發展,包括通過與同行公司以及更廣泛的AI社區(包括學者、政策制定者、民間社會組織和政府)的互動。我們期望隨著我們對如何衡量和緩解前沿AI潛在災難性風險的集體理解的發展,更新我們的框架,包括與國家行為者相關的內容。這可能涉及添加、移除或更新災難性結果或威脅場景,或改變我們準備模型進行評估的方式。我們可能會選擇根據我們修訂后的框架重新評估某些模型。
“我們認識到需要在Meta內部以及更廣泛的生態系統中進行更多研究,以了解如何在開發前沿AI模型時有效衡量和管理風險。為此,我們將繼續致力于:(1)提高評估的質量和可靠性;(2)開發額外的、健全的緩解技術;以及(3)更先進的開源AI模型發布后監控方法?!?/p>
4.Meta此舉:既回應了OpenAI的閉源,也回應了DeepSeek的爆火
Meta 的 Frontier AI Framework似乎是為了回應外界對該公司“開放”系統開發方式的批評。該公司表示,該框架將隨著人工智能格局的變化而發展,而 Meta此前承諾將在本月法國人工智能行動峰會之前發布該框架。Meta 采取的策略是公開提供其人工智能技術(盡管按照普遍理解的定義,它不是開源的),這與 OpenAI 等選擇將系統置于 API 之后的公司形成了鮮明對比。
對于 Meta 來說,開放發布的方式已被證明是好事也是壞事。該公司的 AI 模型系列Llama的下載量已達數億次。但據報道, Llama 還被至少一名美國對手用來開發國防聊天機器人。
有媒體認為,Meta發布 Frontier AI 框架,或許也是為了將其開放 AI 戰略與中國 AI 公司 DeepSeek 進行對比。
隨著DeepSeek-R1的推出,全球開源大模型領域都在將目光轉向DeepSeek,但有關用戶數據安全的擔憂也隨之而來。從外媒報道來看,雖然有夸張的成分,比如用戶數據被中國公司操縱(毫無根據),但也有部分合理的質疑:輸出內容幻覺仍然存在,代碼生成方面不如o1等等。
Meta 在文件中寫道:“我們相信,在制定有關如何開發和部署先進人工智能的決策時,通過同時考慮利益和風險,就有可能以一種既保留該技術對社會的利益又保持適當風險水平的方式將該技術推向社會?!?/p>
Meta 首席執行官扎克伯格曾經表示,有朝一日會將AGI公開,大家一起期待。