揭秘歐盟人工智能法案
歐盟已采取行動(dòng)規(guī)范機(jī)器學(xué)習(xí)。這項(xiàng)新法律對(duì)數(shù)據(jù)科學(xué)家意味著什么?
歐盟人工智能法案在歐洲議會(huì)獲得通過(guò)。您可能會(huì)想,“無(wú)論如何,我不在歐盟”,但相信我,這對(duì)于世界各地的數(shù)據(jù)科學(xué)家和個(gè)人來(lái)說(shuō)實(shí)際上比您想象的更重要。歐盟人工智能法案是規(guī)范和管理某些機(jī)器學(xué)習(xí)模型在歐盟的使用或影響歐盟公民的重大舉措,其中包含一些嚴(yán)格的規(guī)則和對(duì)違規(guī)行為的嚴(yán)厲處罰。
該法律對(duì)風(fēng)險(xiǎn)進(jìn)行了大量討論,這意味著歐盟公民的健康、安全和基本權(quán)利面臨風(fēng)險(xiǎn)。這不僅僅是某種理論上的人工智能災(zāi)難的風(fēng)險(xiǎn),還涉及日常風(fēng)險(xiǎn),即您正在構(gòu)建的模型或您正在銷售的產(chǎn)品在某種程度上使現(xiàn)實(shí)生活變得更糟。如果您熟悉當(dāng)今有關(guān)人工智能倫理的許多爭(zhēng)論,那么這聽(tīng)起來(lái)應(yīng)該很熟悉。嵌入的歧視和對(duì)人民權(quán)利的侵犯,以及對(duì)人民健康和安全的損害,是當(dāng)前人工智能產(chǎn)品和公司面臨的嚴(yán)重問(wèn)題,而這項(xiàng)法律是歐盟保護(hù)人民的首次努力。
一 定義人工智能
普通讀者都知道,我們一直希望“人工智能”得到明確的定義。在這種情況下,該法案對(duì)“人工智能”的定義如下:
一種基于機(jī)器的系統(tǒng),旨在以不同程度的自主性運(yùn)行,在部署后可能表現(xiàn)出適應(yīng)性,并且對(duì)于顯式或隱式目標(biāo),從其接收到的輸入推斷如何生成輸出,例如預(yù)測(cè)、內(nèi)容、建議或決策,這些輸出可以影響物理或虛擬環(huán)境。
那么,這到底意味著什么呢?我的解釋是,產(chǎn)生用于影響世界(特別是人們的身體或數(shù)字條件)的輸出的機(jī)器學(xué)習(xí)模型屬于這個(gè)定義。它不必自動(dòng)適應(yīng)實(shí)時(shí)或重新訓(xùn)練,盡管如果這樣做的話也包括在內(nèi)。
但如果您正在構(gòu)建用于執(zhí)行以下操作的 ML 模型:
- 決定人們的風(fēng)險(xiǎn)水平,例如信用風(fēng)險(xiǎn)、規(guī)則或違法風(fēng)險(xiǎn)等
- 確定在線用戶在提要或廣告中顯示哪些內(nèi)容
- 區(qū)分同一產(chǎn)品向不同人顯示的價(jià)格
- 為人們推薦最好的治療、護(hù)理或服務(wù)
- 建議人們是否采取某些行動(dòng)
如果你的模型影響到任何歐盟公民,那么這些都將受到這項(xiàng)法律的保護(hù)——這只是舉幾個(gè)例子。
二 人工智能應(yīng)用分類
所有人工智能并不相同,法律也承認(rèn)這一點(diǎn)。人工智能的某些應(yīng)用將被完全禁止,而其他應(yīng)用則受到更嚴(yán)格的審查和透明度要求。
1.不可接受的風(fēng)險(xiǎn)人工智能系統(tǒng)
這類系統(tǒng)現(xiàn)在被稱為“不可接受的風(fēng)險(xiǎn)人工智能系統(tǒng)”,是根本不允許的。這部分法律將首先生效,即六個(gè)月后。
- 通過(guò)行為操縱或欺騙手段讓人們做他們本來(lái)不會(huì)做的事情
- 由于年齡或殘疾等原因而針對(duì)人們,以改變他們的行為和/或利用他們
- 生物識(shí)別分類系統(tǒng),嘗試根據(jù)高度敏感的特征對(duì)人進(jìn)行分類
- 導(dǎo)致社會(huì)評(píng)分或差別待遇的人格特征評(píng)估
- 在選定的一組用例之外,為執(zhí)法部門提供“實(shí)時(shí)”生物特征識(shí)別(有針對(duì)性地搜尋失蹤或被綁架人員、對(duì)生命或安全/恐怖主義構(gòu)成迫在眉睫的威脅,或起訴特定犯罪)
- 預(yù)測(cè)性警務(wù)(預(yù)測(cè)人們將來(lái)會(huì)犯罪)
- 廣泛的面部識(shí)別/生物識(shí)別掃描或數(shù)據(jù)抓取
- 沒(méi)有醫(yī)療或安全目的的教育或工作中的情緒推斷系統(tǒng)
例如,這意味著您無(wú)法建立(或被迫提交)旨在確定您是否“高興”足以獲得零售工作的篩選。面部識(shí)別僅限于選擇的、有針對(duì)性的、特定的情況。預(yù)測(cè)警務(wù)現(xiàn)在非常遺憾,它已經(jīng)退出了。
“生物識(shí)別分類”點(diǎn)是指利用政治、宗教、哲學(xué)信仰、性取向、種族等危險(xiǎn)或敏感特征對(duì)人們進(jìn)行分組的模型。法律禁止使用人工智能嘗試根據(jù)這些類別給人們貼上標(biāo)簽,這是可以理解的。
2.高風(fēng)險(xiǎn)人工智能系統(tǒng)
該列表涵蓋了未被禁止但受到嚴(yán)格審查的系統(tǒng)。有涵蓋所有這些系統(tǒng)的具體規(guī)則和規(guī)定,如下所述。
- 醫(yī)療設(shè)備中的人工智能
- 車輛中的人工智能
- 情緒識(shí)別系統(tǒng)中的人工智能
- 人工智能在警務(wù)領(lǐng)域的應(yīng)用
這不包括上述那些特定用例。因此,情緒識(shí)別系統(tǒng)可能是被允許的,但不能用于工作場(chǎng)所或教育領(lǐng)域。醫(yī)療設(shè)備和車輛中的人工智能被認(rèn)為對(duì)健康和安全具有嚴(yán)重風(fēng)險(xiǎn)或潛在風(fēng)險(xiǎn),這是正確的,并且需要非常小心地開(kāi)展。
3.其他
剩下的另外兩個(gè)類別是“低風(fēng)險(xiǎn)人工智能系統(tǒng)”和“通用人工智能模型”。通用模型包括 GPT-4、Claude 或 Gemini 等系統(tǒng),它們具有非常廣泛的用例,通常用于其他下游產(chǎn)品。因此,GPT-4 本身并不屬于高風(fēng)險(xiǎn)或禁止類別,但嵌入它們以供使用的方式受到此處描述的其他規(guī)則的限制。您不能使用 GPT-4 進(jìn)行預(yù)測(cè)性警務(wù),但 GPT-4 可用于低風(fēng)險(xiǎn)案件。
三 透明度和審查
假設(shè)您正在開(kāi)發(fā)一個(gè)高風(fēng)險(xiǎn)的人工智能應(yīng)用程序,并且您希望遵守所有規(guī)則并獲得批準(zhǔn)。如何開(kāi)始?
對(duì)于高風(fēng)險(xiǎn)人工智能系統(tǒng),您將負(fù)責(zé)以下事項(xiàng):
- 維護(hù)并確保數(shù)據(jù)質(zhì)量:您在模型中使用的數(shù)據(jù)是您的責(zé)任,因此您需要仔細(xì)管理它。
- 提供文檔和可追溯性:您從哪里獲得數(shù)據(jù),您能證明嗎?您能展示您所做的任何更改或編輯嗎?
- 提供透明度:如果公眾正在使用您的模型(想想聊天機(jī)器人)或者模型是您產(chǎn)品的一部分,您必須告訴用戶情況確實(shí)如此。不要假裝模特只是客戶服務(wù)熱線或聊天系統(tǒng)中的真人。這實(shí)際上適用于所有模型,甚至是低風(fēng)險(xiǎn)模型。
- 使用人類監(jiān)督:僅僅說(shuō)“模型說(shuō)……”并不能解決問(wèn)題。人類將對(duì)模型的結(jié)果負(fù)責(zé),最重要的是,對(duì)結(jié)果的使用方式負(fù)責(zé)。
- 保護(hù)網(wǎng)絡(luò)安全和穩(wěn)健性:您需要注意確保您的模型免受網(wǎng)絡(luò)攻擊、破壞和無(wú)意的隱私侵犯。如果你的模型因代碼錯(cuò)誤而搞砸,或者由于你未修復(fù)的漏洞而被黑客攻擊,那么后果將由你承擔(dān)。
- 遵守影響評(píng)估:如果您正在構(gòu)建高風(fēng)險(xiǎn)模型,您需要對(duì)用戶或用戶的健康、安全和權(quán)利可能產(chǎn)生的影響(即使您無(wú)意)進(jìn)行嚴(yán)格的評(píng)估。民眾。
- 對(duì)于公共實(shí)體,在歐盟公共數(shù)據(jù)庫(kù)中注冊(cè):該注冊(cè)表是作為新法律的一部分而創(chuàng)建的,備案要求將適用于“公共當(dāng)局、機(jī)構(gòu)或團(tuán)體”——因此主要是政府機(jī)構(gòu),而不是私營(yíng)企業(yè)。
四 測(cè)試
法律指出的另一件事是,如果你正在構(gòu)建一個(gè)高風(fēng)險(xiǎn)的人工智能解決方案,你需要有一種方法來(lái)測(cè)試它,以確保你遵循指導(dǎo)原則,因此一旦對(duì)普通人進(jìn)行測(cè)試就可以允許您獲得知情同意。我們這些從事社會(huì)科學(xué)的人會(huì)發(fā)現(xiàn)這很熟悉——這很像獲得機(jī)構(gòu)審查委員會(huì)批準(zhǔn)進(jìn)行一項(xiàng)研究。
五 效力
該法分階段實(shí)施:
- 6個(gè)月后,對(duì)不可接受風(fēng)險(xiǎn)AI的禁令生效
- 12個(gè)月后,通用AI治理生效
- 24 個(gè)月后,法律中所有剩余規(guī)則生效
注意:法律不涵蓋純粹的個(gè)人、非專業(yè)活動(dòng),除非它們屬于前面列出的禁止類型,因此您的小型開(kāi)源項(xiàng)目不太可能構(gòu)成風(fēng)險(xiǎn)。
六 處罰
那么,如果您的公司不遵守法律并且歐盟公民受到影響,會(huì)發(fā)生什么情況?法律中有明確的處罰措施。
如果您執(zhí)行上述禁止的人工智能形式之一:
- 處以最高3500 萬(wàn)歐元的罰款,或者如果您是企業(yè),則處以去年全球收入的 7% (以較高者為準(zhǔn))
禁止的其他違法行為:
- 最高1500 萬(wàn)歐元的罰款,或者,如果您是企業(yè),則為去年全球收入的 3% (以較高者為準(zhǔn))
就以下任何事情向當(dāng)局撒謊:
- 最高750 萬(wàn)歐元的罰款,或者,如果您是企業(yè),則為去年全球收入的 1% (以較高者為準(zhǔn))
注意:對(duì)于中小型企業(yè),包括初創(chuàng)企業(yè),罰款以較低數(shù)字為準(zhǔn),而不是較高數(shù)字。
七 數(shù)據(jù)科學(xué)家應(yīng)該做什么
如果您要根據(jù)該法案的定義使用人工智能構(gòu)建模型和產(chǎn)品,您首先應(yīng)該熟悉法律及其要求。即使您今天沒(méi)有影響歐盟公民,這也可能對(duì)該領(lǐng)域產(chǎn)生重大影響,您應(yīng)該意識(shí)到這一點(diǎn)。
然后,留意您自己的企業(yè)或組織中潛在的違規(guī)行為。你有一些時(shí)間來(lái)發(fā)現(xiàn)和解決問(wèn)題,但被禁止的人工智能形式首先生效。在大型企業(yè)中,您可能會(huì)有一個(gè)法律團(tuán)隊(duì),但不要以為他們會(huì)為您處理所有這些事情。您是機(jī)器學(xué)習(xí)方面的專家,因此您是企業(yè)檢測(cè)和避免違規(guī)行為的重要組成部分。您可以使用歐盟人工智能法案網(wǎng)站上的合規(guī)檢查工具來(lái)幫助您。
目前,企業(yè)和組織正在使用多種形式的人工智能,而這些形式是新法律所不允許的,比如 Clearview AI,以及預(yù)測(cè)性警務(wù)。情緒測(cè)試也是人們?cè)诠ぷ髅嬖囘^(guò)程中遭受的一個(gè)非常真實(shí)的事情,以及大量的面部或其他生物識(shí)別收集。一旦法律全面生效,對(duì)我們所有人來(lái)說(shuō),關(guān)注這一點(diǎn)并了解執(zhí)法情況將是非常重要的。