MLCommons宣布成立人工智能安全工作組
人工智能基準組織MLCommons宣布成立人工智能安全(AIS:AI Safety)工作組。AIS將開發一個平臺和來自許多貢獻者的測試庫,以支持不同用例的人工智能安全基準。
人工智能系統為社會提供了巨大利益的潛力,但它們并非沒有風險,如有害性、錯誤信息和偏見。與其他復雜技術一樣,社會需要行業標準的安全測試來實現效益,同時將風險降至最低。
新平臺將支持定義從測試庫中選擇的基準,并將輸出匯總為有用的、可理解的分數——類似于其他行業的標準,如汽車安全測試評級和能源星級分數。
這項工作的當務之急是支持更嚴格、更可靠的人工智能安全測試技術的快速發展。AIS工作組將利用其成員和更大的人工智能社區的技術和運營專業知識,幫助指導和創建人工智能安全基準技術。
埃因霍溫理工大學機器學習(ML)副教授Joaquin Vanschoren表示:“廣泛的人工智能社區正在制定的安全基準具有開放性和動態性,這為制定和實現共同目標創造了真正的激勵。”“如果任何人看到未解決的安全問題,他們都可以提出新的測試。我們有一些世界上最聰明的人聚在一起實際解決這些問題,使用基準意味著我們將清楚地了解哪些人工智能模型最能解決安全問題。”
初始重點將是開發大型語言模型(LLM)的安全基準,以斯坦福大學基礎模型研究中心(CRFM)及其語言模型整體評估(HELM)的研究人員所做的開創性工作為基礎。除了建立在HELM框架的基礎上并納入其許多安全相關測試外,工作組還希望一些公司將其內部用于專有目的的人工智能安全測試外部化,并與MLCommons社區公開分享,這將有助于加快創新步伐。
基礎模型研究中心主任Percy Liang表示:“我們開發HELM這一模塊化評估框架已經有大約2年的時間了。我很高興能與MLCommons合作,利用HELM進行人工智能安全評估,這是我思考了7年的課題,隨著強大的基礎模型的興起,這一課題變得極其緊迫。“
AIS工作組認為,隨著測試的成熟,標準的人工智能安全基準將成為人工智能安全方法的重要組成部分。這與負責任的人工智能技術發展和基于風險的政策框架相一致,例如幾家科技公司于2023年7月向美國白宮做出的關于安全、安保和信任的自愿承諾、NIST的人工智能風險管理框架以及歐盟即將出臺的《人工智能法》。
MLCommons支持行業和學術界的廣泛利益相關者開發共享數據、工具和基準,以更有效地構建和測試人工智能系統。MLCommons執行董事David Kanter表示:“我們很高興能與會員合作。……明年,我們將專注于構建和部署人工智能安全基準,首先從開源模型開始,目的是在初步方法得到驗證后,將基準更廣泛地應用于其他LLM。”
首次參與AIS工作組的包括一個由人工智能專家組成的多學科小組,包括:Anthropic、Coactive AI、Google、Inflection、Intel、Meta、Microsoft、NVIDIA、OpenAI、高通,以及埃因霍溫理工大學的學者Joaquin Vanstoren、斯坦福大學的Percy Liang和芝加哥大學的Bo·Li。學術界和產業界的研究人員和工程師以及民間社會和公共部門的領域專家均可參加工作組。點擊閱讀原文,了解如何參與AIS工作組。
關于MLCommons
MLCommons是構建人工智能基準的世界領導者組織。它是一個開放的工程聯盟,其使命是通過基準和數據讓每個人都能更好地進行機器學習。MLCommons的基礎始于2018年的MLPerf基準,該基準作為一組行業指標迅速擴展,以衡量機器學習性能并提高機器學習技術的透明度。MLCommons與其125多名成員、全球技術提供商、學者和研究人員合作,專注于通過基準和指標、公共數據集和最佳實踐為整個機器學習行業構建工具的協同工程工作。