歐盟推出新的人工智能法規
歐盟委員會(European Commission)于2021年4月21日提出了人工智能(AI)法規,旨在將歐洲變打造值得信賴的人工智能(AI)的全球中心。歐盟有史以來第一個人工智能的法律框架與歐盟成員國的協調計劃相結合,將保證人們和企業的安全和基本權利,同時加強歐盟對人工智能的吸收、投資和創新。新法規將調整安全規范,以增加使用者對新一代多功能產品的信任。
新的人工智能法規將確保歐洲人民可以信任人工智能產品。相稱和靈活的規則旨在解決人工智能系統帶來的具體風險,并在全球范圍內設定最高標準。協調計劃(The Coordinated Plan)概述了歐盟成員國必要的政策改變和投資,以加強歐洲在發展以人為本、永續、安全、包容和值得信賴的人工智能方面的領先地位。
新的法規基于人工智能發展趨勢,依據風險高低分類,將適用于所有歐盟成員國。
不可接受的風險(Unacceptable risk):被認為對人們的安全、生計和權利有明顯威脅的人工智能系統將被禁止。這包括操縱人類行為以規避用戶自由意志的人工智能系統或應用(例如,使用語音輔助的玩具,鼓勵未成年人的危險行為)和允許政府進行「社會評分(social scoring)」的系統。
高風險(High-risk):被認定為高風險的人工智能系統涉及到以下用途:
- 重要基礎設施(如交通),可能使人民的生命和健康受到威脅;
- 教育或職業培訓,可能決定某人的受教育機會(如考試評分);
- 產品的安全零件(如AI在機器人輔助手術中的應用);
- 就業、員工管理和自雇管道(如征才使用的履歷分類軟件);
- 基本的私人和公共服務(如信用評分剝奪了公民取得貸款的機會);
- 可能干涉人們基本權利的執法(如評斷證據可靠性的系統);
- 移民、庇護和邊境控制管理(如核實旅行文件真實性的系統);
- 利用AI于司法和民主程序。
高風險的人工智能系統上市前,將受到嚴格的管控約束:
- 充分的風險評估和緩解系統;
- 為系統提供高質量的數據集,以盡量減少風險和歧視性的結果;
- 對活動進行記錄,以確保可追溯結果;
- 提供關于系統及其目的的所有必要信息,以便監管單位評估其合規性;
- 向用戶提供充分且清晰的信息;
- 適當的人力監督措施,以最大限度地減少風險;
- 高度的穩健性、安全性和準確性。
特別是:
- 所有遠程生物辨識(remote biometric identification)系統都被視為高風險的人工智能系統。
- 原則上禁止在公共場所為執法目的使用,狹義的例外情況有嚴格的定義和規定(例如,在尋找失蹤兒童、防止具體和緊迫的恐怖主義威脅或偵查、定位、識別或起訴嚴重刑事犯罪的肇事者或嫌疑人的需要)。
- 使用上必須取得司法或其他獨立機構的授權,并在時間、地理范圍和搜索的數據庫方面有適當的限制。
有限的風險(Limited risk):即具有透明公開義務的人工智能系統。在使用人工智能系統(如聊天機器人)時,使用者應該能意識到正在與機器互動,進而做出明智的決定。
最小的風險(Minimal risk):法規允許自由使用人工智能的電子游戲或垃圾郵件過濾器等應用,絕大多數的人工智能系統都屬于這個類別,對此不作干預,因為這些系統對公民的權利或安全只構成最小或沒有風險。
在監管方面,歐盟委員會建議各國市場監督主管部門配合新的法規,并將設立歐洲人工智能委員會(European Artificial Intelligence Board)促進其實施,推動人工智能標準的發展。此外,還提議為非高風險的人工智能系統制定自發性的行為準則,建立監管沙盒(regulatory sandbox)以促進創新。
《歐盟AI協調計劃〈Coordinated Plan on AI〉》
《歐盟AI協調計劃》首次發布于2018年,確定發展人工智能的行動和工具,使國家策略和歐盟公私合作關系和研究與創新網絡形成了充滿活力的局面。協調計劃的全面更新提出了具體的合作行動,并確保與歐洲人工智能策略(European Strategy on AI)和歐洲綠色新約(European Green Deal)步調一致,同時考慮到COVID-19帶來的新挑戰。協調計劃提出了一個加快人工智能投資的愿景,推動疫后復蘇,刺激各國人工智能發展策略,消除碎片化,應對全球挑戰。
協調計劃將透過數字歐洲(Digital Europe)和展望歐洲(Horizon Europe)計劃,以及歐盟復蘇基金20%數字支出目標和歐盟凝聚政策(Cohesion Policy)分配的資金來進行:
- 通過交流政策見解、數據共享和對關鍵計算能力的投資,為人工智能的發展創造有利環境;
- 透過公私協力伙伴關系(PPP),建立研究、開發和創新能力,并向中小企業和公共管理部門提供測試和實驗設施以及數字創新中心,促進人工智能的商業化。
- 支持數字領域的培訓計劃、博士生網絡和博士后獎學金來培養人才和技能,在全球范圍內促進歐洲人工智能愿景,確保人工智能為人們服務,成為社會的一股力量;
- 在高影響力的部門和技術中建立策略領導地位,包括人工智能對永續環境的貢獻、擴大跨境信息交流來推動智能醫療系統,以及人工智能在公共部門、交通、農業,以及機器人技術的應用。
- 《機械條例〈Machinery Regulation〉》:涵蓋了廣泛的消費者和專業產品,從機器人到割草機、3D打印機、建筑機械、工業生產線。確保新一代的機械保使用者和消費者的安全,并鼓勵創新。雖然人工智能法規將解決人工智能系統的安全風險,但新的機械條例將確保人工智能系統與整個機械的安全整合。企業將只需要執行一個單一的合格評估。
此外,新的機械條例將使現行規定更加明確,透過允許文件的數字格式和調整中小企業的合格評估費用,簡化企業的行政負擔和成本,同時確保與歐盟產品立法框架的一致性。
歐洲議會(European Parliament)和歐盟成員國將需要在普通立法程序中通過歐盟委員會對于人工智能系統和機械的建議。一旦通過,這些條例將直接適用于整個歐盟。同時,歐盟委員會將繼續與成員國合作,推動實施協調計劃。
背景:
多年來,歐盟委員會一直在促進和加強整個歐盟在人工智能方面的合作,以提高競爭力并確保基于歐盟價值觀的信任。
在2018年發布歐洲人工智能策略(European Strategy on AI)后,經過廣泛的協商討論,人工智能高階專家小組(High-Level Expert Group on Artificial Intelligence)在2019年制定了可信賴人工智能準則(Guidelines for Trustworthy AI),并在2020年制定了可信賴人工智能評估列表(Assessment List for Trustworthy AI)。同時,2018年12月發布了第一個的人工智能協調計劃,作為與成員國的聯合承諾。
委員會在2020年發布的人工智能白皮書(White Paper on AI)為歐洲的人工智能提出了一個清晰的愿景:一個卓越和信任的生態系統,為AI法規提案奠定基礎。關于人工智能白皮書的公眾咨詢引起了世界各地的廣泛參與。白皮書中的關于人工智能、物聯網和機器人的安全和責任影響的報告,提到產品安全立法仍不夠完整。
歐擬推AI法規 業界反彈聲浪
對于歐盟提出全新法案管制人工智能(AI)的應用方法,如果立法過關將成為全球第一套管制AI的法規,但企業擔心新法增加AI使用成本,限制或打壓歐盟科技創新。
歐盟最新法案將AI應用方法依風險高低分類,其中高風險AI應用涵蓋重大基礎建設、大學入學篩選系統及銀行貸款審查系統等。根據新法,這類高風險AI應用將受到歐盟嚴格監管,違法企業最高面臨全球年營收6%的罰款。
除了加強監管之外,新法更將禁止特定AI應用,例如公共運輸系統、公共場所、商店使用臉部辨識偵測、警察追查犯人的遠程生物辨識系統,或是能夠讀取潛意識的AI技術。新法規規定,在使用前,必須先向主管機關提出法規遵從報告,詳述臉部辨識系統如何取得數據。
對于AI新法被批評過于攏統不明,實際該如何實施仍有待觀察。法律界人士認為,法規例外情況實在太多,反而失去AI規范保護及禁止的意義。