歐盟發布人工智能法規草案
在大多數情況下,有限或最低風險類別的人工智能系統將能夠像以前一樣運行,歐盟正在立法專門處理可能危及歐盟公民安全或隱私的人工智能系統。
歐盟已經發布了關于人工智能監管的立法草案,該草案將成為人工智能供應商和分銷商在歐盟開拓市場的關鍵框架。
在立法中,歐盟將人工智能系統分為三個風險類別:不可接受的風險、高風險以及有限或最低風險。在大多數情況下,有限或最低風險類別的人工智能系統將能夠像以前一樣運行,歐盟立法專門處理可能危及歐盟公民安全或隱私的人工智能系統。
歐盟委員會主席烏蘇拉·格特魯德·馮·德萊恩 (Ursula Gertrud von der Leyen) 表示:“人工智能對歐洲來說是一個絕佳的機會,公民應該得到他們可以信任的技術?!?nbsp;“今天,我們提出了值得信賴的 AI 的新規則。他們根據不同的風險水平制定了高標準?!?nbsp;
風險最小或低的人工智能系統包括聊天機器人、垃圾郵件過濾器、視頻和電腦游戲、庫存管理系統,以及世界上已經部署的大多數其他非個人人工智能系統。
高風險人工智能系統包括大多數具有現實世界影響的人工智能,例如消費者信用評分、招聘和安全關鍵基礎設施。雖然這些沒有被禁止,但歐盟立法旨在確保對這些系統有更嚴格的要求和監督,同時對那些未能妥善保護數據的人處以更昂貴的罰款。
歐盟打算每年審查高風險清單,要么在其中添加新的人工智能系統,要么降級一些高風險但已在社會中正?;蝻L險因素與往年不同的人工智能系統.
在此 AI 法規通過后,歐盟將不允許存在不可接受風險的 AI 系統。其中包括使用潛意識、操縱或剝削技術的人工智能系統,這不是一個類別,而是對人工智能形式的普遍禁令,如有針對性的政治廣告,或通過面部表情解釋情感的人工智能。
根據人工智能法規,遠程生物特征識別系統也將被禁止,特別是在執法部門用于識別個人身份時。
對于在歐盟內部運營或分發人工智能系統的組織或在經濟集團內部開展業務的組織來說,這項立法是即將到來的第一個明確跡象。歐盟將需要 12 到 24 個月的時間就更詳細的細節達成一致,但該立法不太可能與初稿相比有太大變化。
這使高風險人工智能系統類別的組織有很短的時間重新調整和雇用,以確保他們的人工智能程序在歐盟是可行的。需要額外的人工監督、透明度和風險管理,以確保 AI 系統通過檢查,并且對不合規的處罰目前定為 3000 萬歐元或全球收入的 6%,因此對于大型組織而言,成本可能會迫使如果他們不能重新裝備他們的人工智能系統,他們就會退出歐盟。