成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

AI的偏見:機器就是絕對理性的么?

人工智能 機器學習
人工智能已經遍布我們的日常生活。從YouTube的首頁推薦到生產藥物,它無所不在,它對我們生活的影響超出我們的想象。但人工智能一定公平嗎?不,絕對不是。

 本文轉載自公眾號“讀芯術”(ID:AI_Discovery)

人工智能已經遍布我們的日常生活。從YouTube的首頁推薦到生產藥物,它無所不在,它對我們生活的影響超出我們的想象。但人工智能一定公平嗎?不,絕對不是。

[[354470]]

人們很難定義什么是公平的人工智能。以下是我能想出的最好的定義:對于社會歧視影響下的特定任務,如果給定的人工智能模型能夠輸出獨立于敏感性參數(例如性別、種族、性取向、宗教信仰、殘疾等)的結果,那么這個人工智能模型就是公平的。

本文將討論人工智能偏見,與之對應的真實例子,及其解決方法。

 

問題

人工智能偏見是由于訓練模型的數據所固有的偏見造成的,這導致了社會歧視,進而導致平等機會的缺乏。

假設我的任務是創建一個以位置為參數計算個人信用評分的模型,某些種族群體會集中在某些地方,這將使創建的模型對那些種族群體產生偏見,會影響他們申請信用卡和銀行貸款,存在偏見的人工智能模型加劇了當前的社會歧視。

 

人工智能偏見的真實例子

  • COMPAS(另類制裁法懲罰罪犯管理分析)是美國法院用來判定被告成為累犯(重犯先前所犯罪行的罪犯)可能性的軟件。由于存在嚴重的數據偏差,該模型預測黑人罪犯累犯的假陽性率是白人罪犯的兩倍。
  • 2014年,亞馬遜開發了一套人工智能招聘系統以簡化招聘流程。研究發現該系統歧視女性,因為用于培訓模型的數據來自過去10年。過去10年,由于科技行業中男性占主導地位,大多數被選中的申請人都是男性。亞馬遜在2018年廢除了這個系統。
  • 美國醫療保健系統采用人工智能模型,認為黑人患同一疾病的風險比白人低。這是因為該模型對成本進行了優化,而且由于黑人被認為支付能力較低,因此該模型將他們的健康風險排在白人之后,導致黑人的醫療標準降低。
  • 2019年,Facebook允許廣告商根據種族、性別和宗教瞄準人群。這導致護士和秘書等工作以女性為目標,而像門警和出租車司機這樣的工作則瞄準男性,特別是有色人種的男性。該模型還了解到,房地產廣告向白人展示時,點擊率較好,所以面向少數人群的房地產廣告投放較少。
  • 2020年9月,Twitter用戶發現圖像裁剪算法偏愛白人臉而非黑人臉。當在Twitter上發布一幅與預覽窗口的寬高比不同的圖像時,該算法會自動裁剪掉圖像的一部分,只顯示圖像的某一部分作為預覽。在黑白面孔同框時,該人工智能模型通常在預覽窗口中顯示白人。

這些例子只是滄海一粟。無論開發者是否知情,許多不公平的人工智能操作都真實存在著。

 

如何解決這個問題呢?

邁向公平人工智能的第一步是承認問題。人工智能是不完美的,數據是不完美的,我們的算法是不完善的,我們的技術也不夠完善。如果我們對問題視而不見,那么是不可能找到解決辦法的。

其次,問問自己這個解決方案是否需要人工智能。有一些問題不依賴于數據,比如尋找被告人再犯可能性這樣的任務更多地依賴于情感而不是數據。

第三,遵循負責任的人工智能實踐。在谷歌負責任的人工智能實踐指南的基礎上,我補充了幾個要點。負責任的人工智能實踐:

  • 使用以人為中心的設計方法:設計模型時內置適當的信息披露,并在部署前納入測試人員的反饋。
  • 確定多個指標評估培訓和監控:使用適合任務的不同指標,以了解不同錯誤和經驗之間的權衡。這些指標可以來自消費者的反饋、假陽性率和假陰性率等。
  • 如果可能的話,請檢查原始數據:人工智能模型反映了用來訓練模型的數據。如果數據有問題,模型也會有問題。因此,盡量保持數據平衡。
  • 理解模型的局限性:一個被訓練來檢測相關性的模型對建立因果關系不一定有用。例如,一個模型可能會了解到,購買籃球鞋的人一般都比較高,但這并不意味著購買籃球鞋的用戶會因此變得更高。
  • 測試:進行嚴格的單元測試以確定模型中的故障。
  • 部署后繼續監控和更新模型:在部署模型后,關注用戶反饋,并定期更新模型。
  • 設計一個公平與包容兼具的模型:與倫理和社會研究領域的專家接洽,了解和解釋各種觀點,試著讓模型盡可能公平。
  • 使用具有代表性的數據集來訓練和測試模型:嘗試評估數據的公平性。也就是說,尋找特征與標簽之間的偏見或歧視性關聯。
  • 檢查不公平的偏差:從不同背景的測試人員那里獲取單元測試輸入,這有助于確定哪些人群可能會受到該模型的影響。
  • 分析性能:考慮不同指標,一個指標的改進可能會損害另一個指標的性能。

 

開發公平人工智能的工具

  • AIFairness 360:這是IBM提供的一個開源工具包,可幫助用戶檢查、報告和減輕機器學習模型中的歧視和偏見。
  • ML Fairness Gym:這是谷歌提供的一個工具,用于探索機器學習系統對人工智能偏見的長期影響。
  • FATE:AI中的公平、責任、透明度和倫理(FATE),微軟提供了評估可視化儀表盤和偏差緩解算法的工具。它主要用于公平與系統性能之間的權衡。

近來,公司和政府開始逐漸正視人工智能中的偏見。許多公司已經開發了評估人工智能公平性的工具,并且正在盡最大努力解決人工智能偏見。

雖然人工智能有著巨大的潛力,但我們現在比以往任何時候都更需牢記人工智能系統潛在的歧視性危險,我們也應幫助開發出公平的人工智能模型。

 

責任編輯:華軒 來源: 讀芯術
相關推薦

2018-04-16 08:56:40

2022-06-17 11:37:43

人工智能監督金融機構

2020-03-13 09:48:04

大數據人工智能安全

2024-12-17 14:16:39

2015-09-19 13:45:27

2018-11-28 09:00:54

AI人工智能

2021-04-12 17:47:25

Facebook開源AI

2024-12-25 08:09:37

2022-10-26 09:20:03

AI招聘

2016-01-31 10:02:14

數據中心

2020-07-24 08:03:39

人工智能

2019-01-30 10:40:46

Google Brai人工智能機器學習

2018-01-05 19:07:14

APICloud移動技術應用融合

2021-09-17 12:54:05

AI 數據人工智能

2018-05-23 09:20:12

人工智能機器學習技術

2016-10-17 14:14:47

大數據應用大數據

2009-09-09 08:42:05

2017-10-23 13:29:14

云計算IT領域數據中心

2012-08-29 10:43:17

2025-02-24 13:44:35

點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产视频91在线 | 中文字幕在线观看视频网站 | 高清av一区| 国产精品亚洲成在人线 | 久久国产精品一区二区三区 | av中文字幕在线 | 一片毛片 | 精品国产一区二区三区久久 | 欧美极品一区二区 | 91精品国产综合久久久动漫日韩 | 黄色精品 | 国产一级免费视频 | 毛片一区 | 一区二区三区国产精品 | 精精国产xxxx视频在线 | gogo肉体亚洲高清在线视 | 夜夜夜久久久 | 成人在线中文字幕 | 国产一级毛片视频 | 超碰97人人人人人蜜桃 | 国产一区二区黑人欧美xxxx | 久久久久国 | 欧美成人一级视频 | 亚洲视频在线观看免费 | 大象一区 | 九九久久精品视频 | 国产精品视频yy9299一区 | 美女国内精品自产拍在线播放 | 在线播放国产一区二区三区 | 97国产一区二区 | 搞黄网站在线观看 | 国产日韩一区 | 成人免费视频观看 | 五月天婷婷狠狠 | 亚洲免费在线 | 国产中文字幕网 | 一区二区三区回区在观看免费视频 | 国产精品日韩一区二区 | 亚洲国产精品视频 | 99re99| 国产精品日韩高清伦字幕搜索 |