成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

人工智能的不良、偏頗和不道德的應用

人工智能 深度學習
首席信息官應了解一些個不道德人工智能的例子,并了解其在確保企業人工智能保持中立方面的作用。

 首席信息官應了解一些個不道德人工智能的例子,并了解其在確保企業人工智能保持中立方面的作用。

[[275528]]

如今,人工智能技術的采用正在迅速加快。調研機構Gartner公司預測,到2020年,人工智能將成為30%以上的首席信息官的五大投資重點。麥肯錫公司的一項研究估計,全球科技公司在人工智能技術方面花費了200億至300億美元,主要用于研發。

雖然人工智能技術的社會效用令人信服,但正如英國衛報對“不平等項目”所提出的那樣,也存在著一些合理的擔憂,“當我們提供給機器的數據反映出我們自己不平等社會的歷史時,我們實際上是在要求程序學習我們自己的偏見。”

不幸的是,人工智能的不良、偏見或不道德使用的例子很常見。以及關于企業如何保持中立的建議。

1.抵押貸款

貸款歧視的模式已從人類偏見轉向算法偏見。哈斯商學院金融學教授Adair Morse共同撰寫的一項研究得出結論:“即使編寫算法的人打算創建一個公平的系統,他們的程序對少數借款人也有不同的影響——換句話說,在法律下是歧視性的。”

人們可能會認為,銀行和房地產經紀人將非白人借款人系統地隔離到不太有利的社區,這已成為過去。但令人驚訝的是,抵押貸款行業的自動化只使得在用戶界面后面隱藏紅線變得更加容易。計算機安全專家BruceSchneier在其最近出版的“DataandGoliath”一書中敘述了2000年富國銀行如何利用“社區計算器”創建了一個促進抵押貸款的網站,幫助買家找到合適的社區。計算器收集用戶當前的郵政編碼,根據當前社區的人口統計數據了解他們的種族,并且只推薦具有相似人口統計數據的社區。今年早些時候,美國住房和城市發展部就住房和抵押貸款廣告中的種族偏見起訴了Facebook公司。

2.人力資源

到目前為止,當路透社報道亞馬遜公司的新招聘引擎排除女性時,臭名昭著的招聘偏見問題引起了公眾的注意。

據路透社報道,亞馬遜公司在2014年組建了一個團隊,該團隊使用500多種算法自動化工程師和編碼人員的簡歷審核流程。該團隊使用亞馬遜公司軟件團隊成員的簡歷對系統進行了培訓,而這些團隊成員絕大多數是男性。因此,該系統學會了取消任何上過女子學院或在簡歷中列出女子組織人員的資格。

越來越多的企業正在人力資源流程的各個層面采用算法決策系統。截至2016年,72%的求職者簡歷不是由工作人員篩查的,而是完全由計算機篩選。這意味著求職者和員工與人打交道的頻率會降低——像亞馬遜公司這樣的故事可能會變得更加普遍。

然而,一好消息是一些公司正在努力消除潛在的偏見。ABBYY公司創始人David Yang共同創立了Yva.ai,這是一個專門設計的分析平臺,通過避免使用任何可能導致偏見的指標(例如性別、年齡、種族)來避免算法偏差,即使這些指標是次要的(如參與婦女的活動或體育活動),中學(如姓名或畢業日期),甚至是大學(如參加精英學院,這已被越來越多地稱為對少數群體的偏見的指示)。

在另一個例子中,現在由微軟公司所有的LinkedIn已經部署了系統來收集和利用LinkedIn檔案中的性別信息,而不是忽略這些信息。LinkedIn然后使用這些信息對任何潛在的偏差進行分類和糾正。

3.搜索領域

即使是基本的互聯網搜索也會受到偏見的影響。例如,加州大學洛杉磯分校教授薩Safiya Umoja Noble在谷歌搜索“黑人女性”后,受到啟發寫了一本名為《壓抑的算法》的菱,尋找與侄女分享的有趣網站,結果發現網站頁面上充斥著不良內容。同時,搜索“首席執行官”時卻顯示了大量的白人形象。(幸運的是,首席執行官的問題在搜索引擎上正在得到解決。)

谷歌搜索的其他功能(例如AdWords)也存在偏見。來自卡內基梅隆大學和國際計算機科學研究所的研究人員發現,男性求職者比女性更容易看到高薪高管職位的廣告。在翻譯某些語言時,谷歌翻譯也被稱為性別歧視,例如假定護士是女人,醫生是男人。

4.引導行業

倫敦圣喬治醫院醫學院的招生主任創建了一個1979年的項目,該項目很可能是最早報告的受污染系統的案例,但最終意外地排除了幾乎所有少數族裔和女性申請人。到1986年,學校的工作人員開始關注潛在的歧視,最終發現每年至少有60名少數民族和女性申請人被不公平地排除在外。

人們可能想知道為什么花了這么長時間才發出警報,考慮到根據報道,只要一個非歐洲名字可以自動降低申請人的分數15分。著名的英國醫學雜志直截了當地將這種偏見稱為“職業上的污點”,最終,該校受到了輕微的處罰,并提供了賠償,包括錄取一些被排除在外的申請人。

首席信息官的角色

行業領先的科技公司正在努力解決數據的道德使用問題。例如,微軟公司已經制定了一套六項道德原則,涵蓋公平、可靠、安全、隱私和安全、包容性、透明度、責任。與此同時,Facebook公司最近向慕尼黑技術大學撥款750萬美元,建立一個人工智能道德研究所。其他科技公司已經認同了人工智能聯盟的伙伴關系及其“匯集全球各種聲音以實現人工智能的承諾”的原則。

如果人工智能應用程序沒有偏見,企業必須支持人工智能技術的整體方法。人工智能只和它背后的數據一樣好,所以這些數據必須是公平的,并且代表所有人和文化。

此外,必須根據國際法制定技術原則。今年的G20峰會財長首次認同負責人工智能使用的原則。這包括以人為本的人工智能方法,該方法呼吁各國以尊重人權并分享其所提供的利益的方式使用人工智能。

在最簡單的層面上,首席信息官需要質疑他們正在構建的人工智能應用是否道德、安全和正確。問題可能包括:

1.人工智能技術背后的數據是否良好,或者是否存在算法偏差?

2.是否積極審查人工智能算法,以確保它們經過適當調整和培訓,能夠根據預先定義的測試集生成預期結果?

3.在人工智能技術如何影響組織內部以及客戶和合作伙伴利益相關者外部方面,是否堅持透明原則(如GDPR)?

4.是否設立了專門的人工智能治理和咨詢委員會,包括跨職能領導和外部顧問,以建立和監督人工智能解決方案的治理?

歸根結底,人工智能的倫理應用應被視為一項法律和道德義務,同時也是一項商業命令。不要成為不良和有偏見的人工智能的另一個例子。企業需要從這些不道德的用例中學習教訓,以確定其人工智能工作是否保持中立。

責任編輯:華軒 來源: 機房360
相關推薦

2023-10-20 11:12:43

人工智能供應鏈管理

2022-09-15 11:16:23

人工智能的AI

2023-05-04 14:56:03

2022-05-27 10:34:06

人工智能自動化

2022-07-26 11:26:14

人工智能數據科學風險

2022-12-08 19:20:11

開源用戶使用軟件

2023-08-30 15:09:35

人工智能

2022-05-10 14:11:55

人工智能金融科技機器學習

2020-07-03 08:02:59

人工智能

2022-01-18 11:23:21

人工智能機器學習

2020-10-14 12:28:19

AI人工智能道德

2021-07-02 14:18:44

人工智能架構技術

2022-07-13 15:05:27

人工智能農業

2023-07-10 06:35:17

人工智能法律監管

2022-05-07 10:52:28

人工智能機器人道德風險

2023-02-13 10:02:31

ChatGPT人工智能

2022-06-20 11:05:58

通用人工智能機器人

2019-12-11 13:42:40

人工智能技術移動互聯網

2022-08-09 13:48:30

人工智能時尚行業聊天機器人

2020-11-15 23:26:58

人工智能AI
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产a区 | 99久久精品免费看国产四区 | www性色 | 美女黄18岁以下禁止观看 | 欧美日韩中文在线观看 | 免费看国产一级特黄aaaa大片 | 国产精品久久精品 | 欧美一区不卡 | 精品欧美一区二区精品久久久 | 精久久久 | 日韩午夜 | 国产精品我不卡 | 久久亚洲一区二区三区四区 | 国产区高清 | 国产精品久久久久久久久久三级 | 欧洲一区在线观看 | 日本一区二区视频 | 国产视频第一页 | 成人免费xxxxx在线视频 | 日韩国产免费观看 | 久久久久亚洲 | 四虎影视免费观看 | 日韩欧美国产精品综合嫩v 一区中文字幕 | 99精品99| 精品国产精品三级精品av网址 | 国产一级免费在线观看 | 亚洲综合99 | 日韩精品视频中文字幕 | 日韩精品视频在线 | 亚洲精品1区 | 欧美精品在线免费观看 | 一二区视频 | 欧美综合一区二区三区 | 亚洲精品国产第一综合99久久 | 亚洲人成在线观看 | 91在线资源 | 96久久久久久| 欧美激情第一区 | 天天爽天天操 | 自拍 亚洲 欧美 老师 丝袜 | 久久久精品 |