成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

為什么人工智能是有缺陷的?

人工智能
定義一個公平的AI很難。 這是我能想到的最好的解釋。在此文章中,我將撰寫有關AI偏差,AI偏差的現實示例以及解決方法的文章。

人工智能已經成為每個人生活中不可或缺的一部分。 從YouTube建議之類的簡單任務到諸如生成可治愈疾病的藥物之類的復雜的救生任務,它已經無處不在。 它以比我們意識到的更多的方式影響著我們的生活。

但是,人工智能公平嗎? 不,絕對不是。

[[350140]]

定義一個公平的AI很難。 這是我能想到的最好的解釋。 如果輸出獨立于已經受到社會歧視影響的特定任務的敏感參數(例如性別,種族,性別,宗教信仰,殘疾等),則給定的AI模型是公平的。

在此文章中,我將撰寫有關AI偏差,AI偏差的現實示例以及解決方法的文章。

問題

AI偏差是由于用于訓練模型的數據固有的偏見引起的,從而導致社會歧視。 這導致缺乏平等機會。

例如,假設我的任務是創建一個模型,以位置為參數來計算一個人的信用評分。 某些種族集中在某些地方。 這將使我的模型在種族上偏向那些種族群體,從而在獲得信用卡和銀行貸款時影響他們。

偏愛的AI模型加劇了當前的社會歧視,并為壓迫鋪平了道路。

現實生活中AI偏見的例子

這是AI偏見的一些現實例子:

  • COMPAS:COMPAS(替代性制裁的更正罪犯管理分析)是美國法院用來判斷被告(被控犯罪的人)成為累犯(重犯先前犯罪的行為)的軟件。 由于數據的嚴重偏差,該模型預測的黑人違犯累犯率是白人的兩倍。
  • 亞馬遜的招聘:2014年,亞馬遜開發了一個AI招聘系統,以簡化其招聘流程。 由于用于訓練模型的數據來自過去10年,由于技術行業中男性占主導地位,因此大多數被選為男性的申請人被發現具有歧視性。 亞馬遜在2018年取消了該系統。
  • 美國醫療保健:美國醫療保健系統使用的AI模型為黑人分配的相同疾病發病率低于白人。 這是因為該模型針對成本進行了優化,并且由于人們認為黑人支付能力較差,因此該模型將其健康風險等級低于白人。 這導致黑人的醫療保健標準降低。
  • Twitter圖像裁剪:2020年9月,Twitter用戶發現圖像裁剪算法更喜歡白臉而不是黑臉。 即,當將寬高比與預覽窗口不同的圖像發布到Twitter時,該算法會裁剪圖像的一部分,并僅顯示圖像的特定部分作為預覽。 這種AI模型經常在預覽窗口中以白色和黑色面孔顯示白色面孔。
  • Facebook的廣告算法:2019年,Facebook允許廣告商根據種族,性別和宗教信仰來定位人群。 這導致護理和秘書等工作針對女性,而看門人和出租車司機等工作針對男性,尤其是有色男人。 該模型還了解到,向白人展示房地產廣告時,其點擊率更高,從而導致向少數群體提供房地產廣告的情況有所減少。

這些只是AI偏見的一些常見示例。 無論是否有開發人員的知識,都有許多不公平的AI做法實例。

那么如何解決?

為什么人工智能是有缺陷的?

> Photo by Yancy Min on Unsplash

邁向公平AI的第一步就是承認這個問題。 人工智能是不完美的。 數據不完美。 我們的算法不完善。 我們的技術不完善。 假裝沒有問題,就不可能找到解決方案。

其次,問問自己這個解決方案是否需要AI。

不要害怕在沒有機器學習的情況下發布產品-Google

存在一些不依賴于數據的問題。 諸如發現被告再犯的可能性之類的任務更多地取決于情感而不是數據。

第三,遵循負責任的AI實踐。 我在下面添加了Google負責任的AI實踐指南中的要點。

負責任的AI實踐:

  • 使用以人為本的設計方法:內置適當披露的設計模型,并在部署之前合并測試人員的反饋。
  • 確定多個度量標準以評估培訓和監視:使用適合任務的不同度量標準,以了解不同錯誤和經驗之間的權衡。 這些指標可以是來自消費者的反饋,誤報率和誤報率等。
  • 如有可能,請檢查您的原始數據:AI模型反映了用于訓練模型的數據。 如果數據有問題,則模型也將有問題。 嘗試獲得平衡的數據。
  • 了解模型的局限性:經過訓練可檢測相關性的模型不一定有助于建立因果關系。 例如,一個模型可能會得知購買籃球鞋的人通常平均會更高,但這并不意味著購買籃球鞋的用戶會因此變高。
  • 測試:進行嚴格的單元測試以確定模型中的故障。
  • 部署后繼續監視和更新模型:考慮用戶反饋,并在部署后根據此模型定期更新模型。
  • 設計一個具有公平性和包容性具體目標的模型:與來自倫理學和社會研究領域的專家合作,以理解和解釋各種觀點。 嘗試使您的模型盡可能公平。
  • 使用代表性的數據集來訓練和測試模型:嘗試評估數據的公平性。 即,尋找特征和標簽之間的偏見或歧視性關聯。
  • 檢查是否存在不公正的偏見:從不同背景的測試人員那里獲得單元測試輸入。 這可以幫助確定該模型可能影響的人群。
  • 分析效果:考慮不同的指標。 一個指標的改進可能會損害另一個指標的性能。

開發公平AI的工具

  • FATE:Microsoft提供的AI中的公平性,問責制,透明度和道德規范(FATE),由Microsoft提供評估可視化儀表板和緩解偏差算法的工具。 它主要用于比較系統的公平性和性能之間的權衡。
  • AI Fairness 360:AI Fairness 360是IBM提供的一個開源工具包,可幫助您檢查,報告和減輕機器學習模型中的歧視和偏見。
  • ML Fairness Gym:ML Fairness Gym是Google提供的一種工具,用于探索機器學習系統對AI偏見的長期影響。

結論

在過去的幾年中,公司和政府已經開始認真對待AI偏見。 許多公司已經開發了評估AI公平性的工具,并且正在竭盡全力對抗AI偏見。 盡管AI具有巨大的潛力,但對我們而言,現在要比以往任何時候都更加重要,要牢記AI系統的潛在歧視性危險并幫助開發公平的AI模型。

 

責任編輯:趙寧寧 來源: 今日頭條
相關推薦

2017-12-13 12:44:07

人工智能技術AI

2024-02-20 16:14:36

人工智能開源AI

2022-07-22 11:02:46

人工智能AI網絡安全

2020-04-15 09:56:29

人工智能技術SaaS

2023-08-22 13:56:02

人工智能邊緣計算

2020-08-11 09:13:20

人工智能自動駕駛技術

2024-01-12 17:36:16

人工智能機器學習

2025-01-22 13:47:26

2021-10-26 10:00:35

人工智能AI

2020-01-06 17:37:03

人工智能區塊鏈技術

2023-10-08 14:56:09

2024-02-26 11:31:33

人工智能數據中心

2024-09-03 10:27:03

2023-05-17 17:32:25

2020-04-16 10:18:48

人工智能物聯網貨幣化

2021-04-14 22:00:53

人工智能AI可再生能源

2022-09-26 10:56:28

人工智能數字孿生

2022-06-02 11:40:24

人工智能數據算法

2024-04-11 07:00:00

人工智能

2020-12-18 13:22:33

人工智能算法
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 久久久久久国产精品久久 | 日本视频一区二区三区 | 欧美日韩福利视频 | 91视频官网| 久久精品一区二 | 欧美成人黄色小说 | 欧美一区二区三区四区视频 | 亚洲欧美精品国产一级在线 | 亚洲天堂av在线 | 国产一级片av| 中文字幕视频在线看 | 欧美精品一区二区三区在线 | 亚洲视频一区在线 | 精品国产青草久久久久96 | 国产日产欧产精品精品推荐蛮挑 | 国产伊人久久久 | www.日韩系列 | 久久久久久国产精品 | 国产精品精品视频 | 国产精品一区二区福利视频 | 亚洲女人天堂成人av在线 | 中国一级大毛片 | 亚洲欧美日韩系列 | 久久久久亚洲精品 | 色综合成人网 | 看片国产| 欧美日韩中文字幕在线播放 | 九九热精品在线 | 亚洲人成人一区二区在线观看 | 91精品国产综合久久婷婷香蕉 | .国产精品成人自产拍在线观看6 | 亚洲视频在线看 | 亚洲精品视频免费观看 | 中文字幕av高清 | 国产精品久久久久久久久久久久 | 91av小视频| 亚洲美女在线视频 | 天天插日日操 | 国产精品一区二区久久 | 国产免费一区二区三区网站免费 | 麻豆av一区二区三区久久 |