LeCun、吳恩達等370多人簽聯名信:嚴格控制AI是危險的,開放才是解藥
近幾日,關于如何監督 AI 的討論越來越熱烈,各位大佬們意見非常不統一。
比如圖靈獎三巨頭 Geoffrey Hinton、Yoshua Bengio、Yann LeCun 就出現了兩種觀點。Hinton、Bengio 為一隊,他們強烈呼吁加強對 AI 的監管,否則可能引發「AI 滅絕人類」的風險。LeCun 與他們的觀點并不相同,他認為 AI 強監管必將帶來巨頭壟斷,結果是只有少數公司控制 AI 的研發。
為了表達自己的想法,很多人以簽署聯名信的方式來傳達觀點,就拿剛剛過去的幾天來說,Bengio、Hinton 等再發聯名信《在快速發展的時代管理人工智能風險》,呼吁在開發 AI 系統之前,研究者應該采取緊急治理措施。
與此同時,近日一封名為《人工智能安全和開放的聯合聲明》的公開信正在社交媒體發酵。
公開信鏈接:https://open.mozilla.org/letter/
截至目前,深度學習三巨頭之一的 LeCun、斯坦福大學計算機科學系教授吳恩達等 370 多人已經在這封公開信上簽名。名單還在持續更新中。
LeCun 表示,「開放、透明和廣泛的訪問使軟件平臺更安全、更可靠。這封來自 Mozilla 基金會的公開信,我也簽了名,它為開放的人工智能平臺和系統提供了理由。」
以下為公開信內容:
我們正處于人工智能治理的關鍵時刻。為了減輕人工智能系統當前和未來的危害,我們需要擁抱開放、透明和廣泛的訪問。這需要成為全球優先事項。
的確,公開可用的模型存在風險和漏洞 —— 人工智能模型可能被惡意行為者濫用或被裝備不足的開發人員部署。然而,我們一次又一次地看到,各種專有技術都是如此 —— 增加公眾訪問和審查使技術更安全,而不是更危險。對基礎人工智能模型進行嚴格和專有的控制是保護我們免受大規模傷害的唯一途徑,這種想法往好了說是天真,往壞了說就是危險。
此外,人類發展的歷史告訴我們,迅速采取錯誤的監管可能會導致權力集中,從而損害競爭和創新。開放模型可以為公開辯論提供信息并改進策略制定。如果我們的目標是安全、保障和問責,那么開放和透明就是實現這一目標的重要因素。
我們正處于一場關于人工智能時代「開放」含義的動態討論之中。這場重要的辯論不應該放慢腳步。相反,它應該加快速度,鼓勵我們嘗試、學習和開發新的方法,在人工智能安全競賽中利用開放性。
我們需要為開源與開放構建一系列方法,這些方法可以作為以下方面的基石:
1. 通過獨立研究、協作和知識共享,加速了解人工智能能力的風險和危害。
2. 通過幫助監管機構采用工具來監控大規模人工智能系統,加強公眾監督和問責。
3. 降低新玩家的進入門檻,專注于創建負責任的人工智能。
作為這封公開信的簽署人,我們是一個多元化的群體,包括科學家、策略制定者、工程師、活動家、企業家、教育工作者和記者等等。我們代表關于如何管理和發布開源人工智能的不同觀點。然而,我們強烈同意一件事:開放、負責任和透明的方法對于確保我們在人工智能時代的安全至關重要。
在人工智能安全方面,開放是解藥,而不是毒藥。
簽名者:
- Arthur Mensch,法國初創公司 MistralAI 聯合創始人兼首席執行官
- 吳恩達,DeepLearning.AI 創始人,Landing AI 創始人兼首席執行官,斯坦福大學計算機科學系教授
- Yann Lecun,圖靈獎得主,Meta 首席 AI 科學家
- Julien Chaumond,Hugging Face CTO
- Brian Behlendorf,Apache 創始成員,OpenSSF 首席技術官
- Eric Von Hippel,美國經濟學家,MIT 斯隆管理學院教授
- ……
目前,這封僅僅出現數天的公開信在持續發酵,在國外 AI 社區已經引起了極大的關注與討論,大家可以持續關注名單更新。
如果你同意這封聯名信的觀點,也可以提交自己的信息簽名。
對 AI 進行強監管,到底是弊大于利,還是利大于弊,還需要時間給出答案。