人工智能:對抗種族主義的下一個前沿?
距離全球被喬治·弗洛伊德(George Floyd)被跪害慘案震驚僅僅過了三個月。在美國的集體記憶中,白人警官跪在黑人公民身上8分鐘46秒的畫面仍然歷歷在目。
這并不是美國首例種族歧視的警察暴行。不幸的是,它也不是最后一個。
種族主義在這個國家有很深的淵源。這是一種潰爛的傷口,要么被忽略,要么用感染性藥物治療。美國的制度種族主義沒有盡頭,而且更糟的是,這種疾病正在尋找新的傳播途徑。
甚至被認(rèn)為是現(xiàn)代歷史上最大的技術(shù)突破之一的人工智能,也繼承了一些在社會上普遍存在的偏見。
AI可以被偏見嗎?
如果是在早些年,說計算機(jī)程序存在偏見似乎聽起來荒謬的。畢竟,為什么任何軟件都會關(guān)心某人的種族、性別和膚色?但是那是在機(jī)器學(xué)習(xí)和大數(shù)據(jù)授權(quán)計算機(jī)做出自己的決定之前。
現(xiàn)在,算法正在增強(qiáng)客戶支持,重塑當(dāng)代時尚,并為從法律和秩序到城市管理的所有流程都可以自動化的未來鋪平道路。
Namobot網(wǎng)站的邁克爾·雷諾茲(Michael Reynolds)解釋說:“我們面臨著一個非常現(xiàn)實(shí)的機(jī)會,即AI反烏托邦。”該網(wǎng)站通過大數(shù)據(jù)和算法來生成博客名稱。 “包含人類解釋和認(rèn)知評估的錯誤數(shù)據(jù)集會使機(jī)器學(xué)習(xí)模型將人類偏見轉(zhuǎn)化為算法。”
這不是遙不可及的事,但已經(jīng)在發(fā)生。
算法偏差的不幸示例
風(fēng)險評估工具通常用于刑事司法系統(tǒng)中,以預(yù)測重罪犯再次犯罪的可能性。從理論上講,這種少數(shù)派報告類型的技術(shù)用于威懾未來的犯罪。但是,批評家認(rèn)為這些程序會傷害少數(shù)群體。
ProPublica在2016年對其進(jìn)行了測試,當(dāng)時它檢查了7000多人的風(fēng)險評分。該非營利組織分析了在佛羅里達(dá)州布勞沃德縣被捕了兩年以上的囚犯的數(shù)據(jù),以了解在接下來的幾年中誰被指控犯有新罪行。
結(jié)果表明許多人已經(jīng)過于擔(dān)心了。根據(jù)該算法,黑人被告犯罪的可能性是白人的兩倍。但事實(shí)證明,只有20%的人預(yù)計會從事犯罪活動。
同樣,警察使用的面部識別軟件最終會嚴(yán)重影響非裔美國人。根據(jù)美國聯(lián)邦調(diào)查局(FBI)合著的一項研究,在西雅圖等城市使用的面部識別對黑人的準(zhǔn)確性可能較低,從而導(dǎo)致身份識別錯誤和誤捕。
算法偏差不僅限于司法系統(tǒng)。黑人通常被剝奪了為改善患有復(fù)雜疾病的患者提供醫(yī)療服務(wù)的程序。同樣,在相同疾病下,與白人患者相比,這些程序不太可能將黑人患者轉(zhuǎn)介給黑人患者。
簡而言之,科技公司正在將自己的偏見注入系統(tǒng)。旨在做出基于數(shù)據(jù)的公平?jīng)Q策的確切系統(tǒng)。
那么,如何解決這種情況呢?
透明度是關(guān)鍵
算法偏差是一個復(fù)雜的問題,主要是因?yàn)楹茈y觀察到。程序員常常困惑于發(fā)現(xiàn)他們基于性別和膚色對人的歧視算法。去年,史蒂夫·沃茲尼亞克(Steve Wozniak)透露,蘋果給他的信用額度是他妻子的10倍,盡管她的信用評分更高。
消費(fèi)者很少會發(fā)現(xiàn)這種差異。審查人工智能部分歧視的研究也需要大量時間和資源。因此,倡導(dǎo)者要求在整個系統(tǒng)的運(yùn)行方式上提高透明度。
該問題值得在全行業(yè)范圍內(nèi)解決,但在此過程中仍存在障礙。即使發(fā)現(xiàn)算法存在偏差,企業(yè)也不允許其他人分析數(shù)據(jù),并且調(diào)查不夠徹底。蘋果公司表示將調(diào)查沃茲尼亞克問題,但到目前為止沒有任何進(jìn)展。
提高透明度將要求企業(yè)向觀察員透露他們的訓(xùn)練數(shù)據(jù)或接受第三方審核。程序員還可以選擇主動進(jìn)行測試,以確定將其系統(tǒng)應(yīng)用到屬于不同背景的個人時的方式。
為了確保一定程度的透明度,用于訓(xùn)練AI的數(shù)據(jù)和用于評估AI的數(shù)據(jù)應(yīng)公開。在政府事務(wù)上,做到這一點(diǎn)應(yīng)該更容易。但是,企業(yè)界會拒絕這種想法。
數(shù)據(jù)多元化
根據(jù)紐約大學(xué)研究中心發(fā)表的一篇論文,人工智能缺乏多樣性已經(jīng)到了“思考的時刻”。研究表明,由于這個原因,AI領(lǐng)域絕大多數(shù)是白人和男性,因此有重新確立權(quán)力失衡和歷史偏見的風(fēng)險。
該報告的作者凱特·克勞福德解釋說:“AI行業(yè)必須承認(rèn)局勢的嚴(yán)重性,并承認(rèn)其現(xiàn)有方法未能解決這些問題。”
由于Facebook和Microsoft都擁有4%的黑人勞動力-很明顯,在AI領(lǐng)域中少數(shù)民族沒有得到公平的代表。研究人員和程序員是一群具有一定特權(quán)的同質(zhì)人群。
如果資源池多樣化,那么數(shù)據(jù)將更能代表我們所居住的世界。算法將獲得當(dāng)前被忽略的觀點(diǎn),并且AI程序的偏見將大大減少。
總結(jié)
是否有可能創(chuàng)建一種完全沒有偏見的算法?可能不會。
人工智能是由人類設(shè)計的,人們永遠(yuǎn)不會真正偏見。但是,由優(yōu)勢群體的個人創(chuàng)建的程序只會幫助使針對少數(shù)群體的不公正現(xiàn)象長期存在。
為確保算法不會成為針對黑人和西班牙裔社區(qū)的壓迫工具,應(yīng)推動公共和私人機(jī)構(gòu)保持一定的透明度。
大型技術(shù)必須具有多樣性,并能提升屬于少數(shù)族裔的程序員,這也是當(dāng)務(wù)之急。這樣的舉動可以拯救我們的社會,使其免于成為AI反烏托邦。