OpenAI員工“吹哨”,人工智能安全來到臨界點
人工智能安全危機的臨界點似乎正加速到來。本周二OpenAI和Google DeepMind員工聯名發表公開信,呼吁重視人工智能技術帶來的嚴重風險,包括導致人類滅絕的風險。
公開信還呼吁AI巨頭不對“吹哨”員工進行報復(根據OpenAI的保密協議,離職員工如果批評公司將失去既得股權)。簽署公開信的員工警告說,人工智能已經帶來了嚴重風險,包括“進一步加劇現有的不平等,操縱和誤導信息,以及失去對自主人工智能系統的控制,可能導致人類滅絕”。
這封公開信激起了全球對“輕安全,重發展”的人工智能技術爆發安全危機的普遍擔憂。
業界大咖集體發出警告
在OpenAI和谷歌員工發表聯名公開信之前,已經有多位人工智能領軍人物聯名撰文警告人工智能安全存在嚴重安全隱患,呼吁管理人工智能極端風險。
近日,來自美國、中國、英國、加拿大和以色列的,包括圖靈獎獲得者在內的20多位重量級教授及學者在《科學》期刊聯名撰文《在快速進步中管理人工智能極端風險》,直指人工智能領域重發展輕安全的現狀,呼吁立即調整方向,有效監管,遠離災難。
這份文章的作者包括人工智能“教父”杰弗里·辛頓(Geoffrey Hinton)、圖靈獎得主約書亞·本吉奧(Yoshua Bengio)、姚期智(Andrew Yao)、素有“計算機安全教母“之稱的宋曉東(Dawn Song)和《人類簡史》三部曲作者尤瓦爾·赫拉利(Yuval Harari)等。
學者們在文章中指出:
人工智能正在黑客攻擊、社會操縱和戰略規劃等關鍵領域取得進展,并可能很快帶來前所未有的控制挑戰。一旦自主人工智能系統開始追求人類不想要的目標,人類可能無法控制。
文章警告稱:“需要警惕的是,與人類相似,高級人工智能系統可能會在(人類對其的)評估中‘撒謊’,故意表現不同,假裝與人類期望一致,因此這種AI行為評估可能無法奏效。”
值得注意的是,包括Yoshua Bengio、Geoffrey Hinton和Stuart J. Russell在內的知名AI專家還支持OpenAI和谷歌“吹哨”員工的公開信觀點(人工智能對人類生存構成威脅)。然而,也有一些專家,如Meta的楊立昆(Yann LeCun),對AI構成人類生存風險的說法持異議,認為“AI接管”論分散了對當前AI危害(如偏見和危險幻覺)的關注。
人工智能安全監管雷聲大雨點小
澳大利亞ABC中文網近日發表題為“我們是否站在人工智能安全監管的關鍵節點?”的文章,認為當前各國的人工智能安全監管“雷聲大,雨點小”。
報道指出,人工智能全球生成式人工智能投資正呈井噴式激增。2023年,生成式人工智能的資金比2022年增長了近八倍,達到252億美元。
根據斯坦福大學《2024人工智能指數報告》,美國的人工智能模型搖搖領先于中國、歐盟和英國。2023年,全球有61個著名的人工智能模型來自美國的機構,遠遠超過歐盟的21個和中國的15個。
但人工智能安全研究則嚴重滯后,只有大約1%到3%的人工智能出版物與安全有關。
新加坡國立大學教育創新副校長、新加坡國家人工智能核心項目人工智能管理高級總監、《我們,機器人?人工智能監管及其法律局限》一書作者陳西文教授(Simon Chesterman)認為,當前正值監管人工智能的黃金時代,但各方言行卻背道而馳。
報告顯示,各國開始重視對人工智能的監管。法律中包含人工智能一詞的國家數量大幅增加,從2022年的25個國家增加到2023年的127個國家。
但是,由于各國政府出臺的人工智能法規在人工智能潛在收益和風險監管之間搖擺權衡,導致全球對人工智能的安全監管可謂雷聲大、雨點小。
歐盟、美國與中國的監管博弈
在兩周前舉行的首爾峰會上,人工智能安全問題再次成為焦點。其中,處于人工智能發展最前沿的美國、歐盟和中國對人工智能安全監管的態度尤為值得關注。
歐盟正致力于成為全球人工智能監管的領跑者和規則制定者。本月,全球首部人工智能全面監管法規——歐盟的《人工智能法》將正式生效。
根據歐盟網站介紹,這部《人工智能法》將人工智能的應用劃分為三大風險類別:
- 首先,造成不可接受風險的應用和系統將被禁止,例如由政府管理的社會評分類型。
- 其次,高風險應用,如對求職者進行排名的簡歷掃描工具,須遵守特定的法律要求。
- 最后,未被明確禁止或列為高風險的應用程序基本上不受監管。
歐盟的《人工智能法》采用的是金字塔式風險監管,對高風險人工智能系統實施全生命周期風險管控,被廣泛視為迄今為止最嚴厲的人工智能監管法案。
與歐盟相比,美國也頒布了多項人工智能法案,例如《2020年國家人工智能倡議法案》、2023年《人工智能權利法案藍圖》和兩個指導國會未來立法的政策框架。斯坦福大學報告稱,2016年至2022年間,美國14個州通過了與人工智能相關的立法,其中馬里蘭州居首,通過了七項法案,加利福尼亞州隨后,通過了六項法案。
斯坦福大學報告指出,美國的法案更多強調人工智能的權利和機遇,鼓勵人工智能技術創新發展,采取的是審慎監管原則和聯邦與州雙線監管問責機制,出臺的法案不具約束性。
“美國采取的是一種市場方法,立法很少,不過隨著風險變得越來越大,這種情況可能會發生變化,”新加坡國立大學副校長陳西文教授說。
在歐盟發布《人工智能法》之前,中國被廣泛看作是人工智能監管的領跑者,在ChatGPT問世僅僅數月內就頒布了生成式人工智能的法律法規。
事實上,早在2021年,中國就發布了《新一代人工智能倫理規范》將倫理道德融入人工智能全生命周期進行監管。之后,中國又陸續發布了《互聯網信息服務算法推薦管理規定》、《互聯網信息服務深度合成管理規定》和《生成式人工智能服務管理暫行辦法》,從算法、深度偽造、生成式人工智能等方面對相關技術的開發和發布者提出監管要求。
澳大利亞廣播公司ABC指出,在全球主要經濟體中,中國政府對人工智能技術(風險)的反應表現最為敏捷迅速,因此目前全球普遍觀望,中國是否會效仿歐盟出臺全面的《人工智能法》?
墨爾本大學的帕特森教授指出:“歐盟、美國、英國和中國采用不同監管模式來應對人工智能風險。歐盟的《人工智能法》干預力度最大,以法律監管體系為基礎,涵蓋全面的隱私保護和人權保護,歐盟還制定了《數字服務和數字平臺法》,對大型數字平臺進行特別監管,這使其與干預較少的美國截然不同”。