成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

如何建立公平的AI系統(tǒng)?

人工智能
構建公平的AI需要兩步過程:理解偏見和解決潛在偏差。在本文中,我們將重點討論第一個主題。

人工智能正在各行各業(yè)的企業(yè)中迅速部署,預計企業(yè)在未來三年內(nèi)將在人工智能系統(tǒng)上的支出增加一倍。但是,AI并不是最容易部署的技術,即使功能齊全的AI系統(tǒng)也可能帶來業(yè)務和客戶風險。

近期在信貸、招聘和醫(yī)療保健應用中有關AI的新聞報道中強調的主要風險之一是存在潛在的偏見。因此,其中一些公司受到政府機構的監(jiān)管,以確保其AI模型是公平的。

機器學習模型在實際示例中進行訓練,以模仿未見數(shù)據(jù)的歷史結果。訓練數(shù)據(jù)可能由于多種原因而產(chǎn)生偏見,包括代表受保護群體的數(shù)據(jù)項數(shù)量有限以及在整理數(shù)據(jù)過程中人為偏見潛伏的可能性。不幸的是,對有偏見的數(shù)據(jù)進行訓練的模型通常會使他們做出的決策中的偏見永存。

確保業(yè)務流程的公平性不是一個新的范例。例如,美國政府在1970年代禁止通過公平貸款法(例如《平等信貸機會法》(ECOA)和《公平住房法》(FHAct))對信貸和房地產(chǎn)交易進行歧視。此外,《同酬法》、《民權法》、《康復法》、《就業(yè)年齡歧視法》和《移民改革法》都提供了廣泛的保護措施,以防止歧視某些受保護群體。

構建公平的AI需要兩步過程:理解偏見和解決潛在偏差。在本文中,我們將重點討論第一個主題。

了解偏見

在解決問題之前,您需要首先確定其存在。沒有一家公司會以惡意的意圖將其AI系統(tǒng)偏向用戶。取而代之的是,由于模型開發(fā)生命周期中缺乏意識和透明性,導致了無意間引入了偏見。

以下列出了最佳實踐,以更好地理解和減少ML開發(fā)生命周期中的偏見。

(1) 獲得主要利益相關者的支持

不公平的系統(tǒng)類似于會產(chǎn)生重大業(yè)務影響的安全風險。實施公平治理流程需要物質資源。沒有領導團隊的支持,必要的實現(xiàn)該流程所需的任務可能無法獲得超過其他業(yè)務優(yōu)先級的足夠開發(fā)能力。因此,強大的以公平為中心的AI流程始于AI所有利益相關者的認同系統(tǒng),包括管理團隊。

(2) 任命“內(nèi)部捍衛(wèi)者”

確保買入后,任命負責建立公平程序的冠軍。倡導者在包括法律和合規(guī)代表在內(nèi)的各個團隊之間進行溝通,以草擬與公司領域(例如,醫(yī)療保健、招聘等)和團隊的特定用例(例如,建議重新住院、確定保險費、評估信用度)相關的準則等。有幾種偏見度量標準,例如機會均等、人口統(tǒng)計均等。公平性度量標準的選擇取決于用例,并由從業(yè)者掌握。

在最終確定指導方針之后,“捍衛(wèi)者”將對相關團隊進行培訓。為了使其可行,AI公平工作流程可確保數(shù)據(jù)和模型偏差。另外,它要求訪問被評估公平性的受保護屬性,例如性別和種族。在大多數(shù)情況下,很難收集受保護的屬性,在大多數(shù)情況下,直接在模型中使用它們是非法的。

但是,即使未將受保護的屬性用作模型功能,也可能存在代理偏差,另一個數(shù)據(jù)字段(如郵政編碼)可能會與受保護的屬性(如種族)相關聯(lián)。如果沒有保護屬性并對其進行衡量,則很難識別偏差。團隊解決這一差距的一種方法是推斷受保護的屬性,例如在貸款承保模型的情況下使用普查數(shù)據(jù)推斷性別和種族。

測量偏差

接下來,我們需要測量偏差。不幸的是,許多類型的機器學習模型固有的不透明性使得測量其偏差變得困難。人工智能的可解釋性是一項最新的研究進展,它解鎖了人工智能的黑匣子,使人們可以了解人工智能模型內(nèi)部發(fā)生的事情。這導致對偏差的透明評估,以確保由AI驅動的決策是負責任和可信賴的。

以下是ML模型的公平報告示例:


該特定報告是用于評估風險以做出貸款決策的模型。它在受保護的“種族”屬性上具有其他元數(shù)據(jù)。使用此報告,用戶可以使用各種公平性指標來查看組公平性和不同的影響。建議您根據(jù)用例的領域需求,專注于特定指標(例如,“誤報率”)和特定特權類別(例如,白種人)來衡量偏見。

除了上面的貸款模型之類的表格模型外,文本和圖像模型中也會出現(xiàn)偏差。例如,下圖顯示了一個文本模型,該文本模型正在測量用戶生成的注釋的毒性。

下面的樣本偏見報告顯示了該模型如何評估跨種族和宗教階層的毒性。


請注意,熱圖如何表明該模型相對于“女性”和“無神論者”身份群體的偏見要小得多。在這種情況下,ML開發(fā)人員可能希望將有偏見的身份組的更多代表性示例添加到訓練集中。

生產(chǎn)模型的公平考慮

無論在部署之前是否存在偏差,一旦模型為實時流量提供服務,就有可能發(fā)生偏差。偏差的變化通常是由于向部署的模型提供了輸入數(shù)據(jù)而導致的,這些輸入數(shù)據(jù)在統(tǒng)計上不同于用于訓練模型的數(shù)據(jù)。因此,最佳實踐是在部署后監(jiān)視模型中的相關偏差指標。下面的屏幕截圖描繪了監(jiān)視模型準確性指標(用于跟蹤潛在偏差的相關指標之一)的外觀。

總之,人工智能為量化和解決迄今為止由人主導和不透明的決策系統(tǒng)中的偏差提供了獨特的機會。

 

責任編輯:趙寧寧 來源: 千家網(wǎng)
相關推薦

2020-11-10 20:41:25

AI人工智能

2013-01-23 19:52:41

搶票插件360瀏覽器360安全中心

2025-03-13 13:38:28

2017-04-25 13:13:53

機器人人工智能法律

2020-12-23 08:00:00

數(shù)據(jù)中心運營組織

2020-03-19 09:32:10

數(shù)據(jù)庫運維技術

2024-07-15 08:13:10

2023-09-05 10:40:20

Meta人工智能

2022-06-22 11:11:48

人工智能AI

2020-12-31 08:00:00

機器學習人工智能工程師

2018-11-08 09:40:04

蘇寧智能維護系統(tǒng)Python

2018-10-16 10:51:59

AI招聘算法招聘歧視

2016-10-13 16:49:11

2023-06-19 18:19:04

人工智能智能家居

2011-11-15 09:14:45

WLAN

2024-03-01 09:57:19

數(shù)據(jù)庫檢索項目

2022-08-19 09:53:20

人工智能大數(shù)據(jù)風險

2022-12-26 00:00:04

公平鎖非公平鎖

2024-05-24 14:51:07

2022-07-12 08:56:18

公平鎖非公平鎖Java
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产免费一区二区三区 | 免费在线观看成人av | 一级做a| 久久国产一区 | 久久综合伊人一区二区三 | 日韩电影一区 | hitomi一区二区三区精品 | 日韩精品一二三 | 视频一二区 | 国产一区二区三区四区 | 欧美一区| 毛片在线看片 | 男女黄网站 | 欧美日韩国产精品一区二区 | 日韩成人| 精品一区二区三区免费视频 | 中文字幕电影在线观看 | 亚洲精品一区二区三区四区高清 | 国产美女在线观看 | 日日操av| 欧美日韩三级 | 欧美日韩国产一区二区三区 | 精品国产免费一区二区三区演员表 | 精品国产免费一区二区三区演员表 | 视频一区二区在线观看 | 天天干天天谢 | 一区二区三区欧美 | 黄色一级毛片 | 日韩精品免费视频 | 婷婷成人在线 | 久久婷婷色 | 欧美二级| 精品欧美乱码久久久久久1区2区 | 青青99| 国内自拍偷拍一区 | 日本不卡一区 | 日韩三级在线 | 色综合色综合色综合 | 日韩在线小视频 | 国内精品久久久久久影视8 最新黄色在线观看 | 成在线人视频免费视频 |