人工智能大行其道:科技公司需要設置“首席偏差官”
英國皇家歷史學會最近透露,學會利用人工智能算法進行的初次研究顯示,英國的勞動力存在“大規模性別偏差”。基于人工智能的系統搜集了整個英國互聯網上的資料,排查了現有男女職位的分布。該項研究調研了108個不同的經濟行業后發現,其中87%的行業存在傾向于男性的不平等,導致任高層領導職位的男性不成比例。
這項開創性的研究很好地說明了人工智能在闡釋我們的世界時具有極大的潛力,畢竟,人工智能的一個強大功能就是分析超大量的數據并在其中找到我們人類無法找到的模式。不過,雖然人工智能可以幫助發現偏差和不公平,但實際上人工智能也可能導致更多偏差和不公平。
來看一下以下的例子:加納裔美國計算機科學家Joy Buolamwini(https://twitter.com/jovialjoy?lang=en)現在是麻省理工學院媒體實驗室的羅德學者和研究員,她以前讀研究生時發現她使用的人工智能面部識別系統無法識別她的臉。而只有在她戴上白色面具后系統才能確認她的存在。在Buolamwini案例中,面部識別系統不能識別她,因為用于訓練軟件的數據池里大部分是白色面孔,而且缺乏足夠的多樣性。換句話說,問題始于數據本身,人工智能系統要從這個有缺陷的數據集合里學習,系統越來越“智能”時,問題也就會揮之不去。其實,實際的系統會變得越來越笨,因為偏差本身會進一步強化偏差。Buolamwini發起了算法正義聯盟(https://www.ajlunited.org/)計劃,計劃旨在推動大家對人工智能偏差的關注及培訓組織實行人工智能實踐。Buolamwini希望借計劃推動更公平、更道德的人工智能方法,這一使命在人工智能驅動決策制定的時代顯得尤其重要。
一眾企業不僅必須重新定位數據集和算法培訓,還必須重新定位圍繞人工智能的流程和人員。(圖:美聯社)
含偏差的人工智能也擴展到了其他領域,如刑事司法、招聘和招聘等等。IBM發表的一份研究報告提出,已經定義和分了類的人類偏差達180之多,每種偏差都可以干擾判斷及影響最終決策。人工智能則很容易復制這些偏差。假定一家公司要利用人工智能來確定員工的工資,定工資的標準部分基于薪酬歷史。這就可能會令女性處于相當不利的地位(https://www.brookings.edu/blog/techtank/2019/01/03/artificial- intelligence-and-bias-four-key-challenges/),基本就是因為她們過去一直受到歧視。再例如,推薦引擎也會從用戶的偏好中學習并提出相應的建議。
各個組織要如何才能確定自己及人工智能系統所依賴的數據確實是合適的?而且不會強化歧視模式呢?
與許多其他問題一樣,克服問題的先要承認問題的存在。企業不僅必須重新定位數據集和算法培訓,還必須重新定位圍繞人工智能的流程和人員。我們希望有一個更公平的工作場所,在這個過程中解決這些問題就至關重要。我們必須有專門的團隊和流程,甚至可能需要創建諸如“首席偏差官”這樣的職位,他的工作就是審查數據并確保嚴格的道德標準,人工智能工具將會在我們的工作環境里越來越普及,他的任務是與偏差和偏見做斗爭。
例如,他可以通過推動多樣化,影響工程團隊的招聘,然后再定期檢查工程師為人工智能算法選用的數據輸入。這是“人員就是政策”的一個例子。要認識到人工智能并非絕對可靠,這一點很重要,拙劣的輸入意味著拙劣的輸出。他要定期進行績效評估,要針對可查算法輸出進行控制測試及持續微調。
各組織需確保多種背景的使用,多種背景可以防止扭曲和盲點。 Buolamwini本人則建議組織要檢查不同偏差集的算法 ,一系列不同的視角可以加強這方面的工作,可以減少偏差數據及確保更公平的算法代碼。
修復算法偏差需要管理層、人力資源和工程師的共同努力,三方面合作才能有效地將有意識和無意識的人類偏見排除在系統之外。人類的愚笨是永遠無法完全消除的,但認識了人類的愚笨后,我們就可以打造更公平、更聰慧的人工智能系統,可以真正令我們的工作場所決策少一些人工、多一些智能。