人力資源如何理解和減少人工智能偏見
人工智能(AI)和機器學習(ML)提供的好處已經得到共識。這項技術可以幫助企業實現流程自動化,通過數據分析獲得洞察力,并與客戶和員工建立聯系。
它可以幫助他們滿足不斷變化的市場需求,降低運營成本,并在當下快節奏的數字世界中保持競爭力。
人力資源應用人工智能
如今,許多主要的云服務提供商已經在其服務包中提供人工智能功能,為那些可能難以負擔昂貴的人工智能工程師和數據科學家的企業普及這項技術。
對于人力資源團隊來說,人工智能的價值是顯而易見的。一張招聘啟事就會導致成百上千的求職者,手動查看每個簡歷往往是一項艱巨且耗時的任務。通過利用人工智能和機器學習技術,人力資源團隊獲得了大規模評估應聘者的能力,并大大提高了招聘推薦的效率。
人工智能誘發偏見對人力資源的影響
雖然人工智能為人力資源企業或部門提供了相當明顯的好處,但它也帶來了相當嚴重的挑戰和潛在的陷阱。對于任何AI系統,你必須正面解決最困難(但也是最關鍵)的一個問題就是確保它沒有偏見。
這對人力資源的人工智能系統尤其重要,因為任何人工智能引發的偏見都可能導致公司錯失合格的求職者——而且通常是在所有人不知情的情況下。
還記得幾年前,亞馬遜(Amazon)因為性別歧視,而不得不取消了用于篩選簡歷的人工智能系統嗎?(深度閱讀:人工智能的幾次著名“翻車”)這是訓練數據力量的一個完美的例子——盡管很不幸是負面的。當時,亞馬遜的大多數員工都是男性,因此,為人工智能系統提供的算法,根據公司自己的數據進行訓練,最終將應用程序與男性化的詞匯聯系起來。
在這樣做的過程中,合格的女性候選人完全被模型忽略了。因此,如果用于訓練AI模型的數據是有偏見的,那么部署的AI系統也會有偏見。而且它將繼續無限期地強化這種偏見。
人工智能系統無論是外包還是企業自建,都需要更密切關注偏見問題
在亞馬遜的案例中,用于篩選簡歷的人工智能系統是公司內部構建的,并使用該公司自己的求職者的數據進行培訓。但大多數公司沒有資源為其人力資源部門建立內部人工智能系統。因此,越來越多的人力資源團隊將工作外包給Workday或谷歌Cloud等供應商。
現在比以往任何時候都更重要的是,人力資源團隊必須承認外包任何人工智能所帶來的巨大責任。不要只是盲目地接受和執行你的AI供應商的模型。您和您的團隊需要反復審查系統,以確保它們沒有偏見。你需要不斷地問自己:
- 哪些數據源(或數據源的組合)被用于訓練模型?
- 模型使用哪些具體因素來做出決策?
- 結果是令人滿意的,還是有什么不正確的地方?系統是否需要暫時關閉并重新評估?
仔細審查培訓數據非常重要,特別是在外包人工智能系統中。但這并不是減輕來自偏見工作環境的偏見數據的唯一途徑。
因此,你的人力資源團隊也有責任評估公司內部的偏見或不公平問題。例如,在公司里男性是否比女性擁有更大的權力?哪些有問題的行為長期以來被認為是可以接受的?數據是否來自不具代表性的群體?
公司文化的多樣性、公平性和包容性在融入人工智能時是絕對相關的,因為它推動了人工智能系統和結果的部署。記住,人工智能并不知道它是有偏見的。這取決于我們自己。
公平且不帶偏見地利用人工智能的三個最佳實踐
最終,人力資源團隊需要了解他們的人工智能系統能做什么,不能做什么。現在,你的人力資源團隊不必是技術專家或理解驅動人工智能模型的算法。
但他們確實需要知道,培訓數據中反映了哪種偏見,偏見是如何融入公司文化的,以及人工智能系統是如何讓這些偏見延續下去的。
以下是三個策略最佳實踐,可以幫助你的人力資源團隊以公平和公正的方式利用AI技術。
定期審計人工智能系統。無論您的系統是內部構建的還是外包給供應商的,例行檢查收集的數據以培訓模型和產生的結果。數據集是否足夠龐大和多樣?它是否包括有關受保護群體的信息,包括種族和性別?如果結果不令人滿意,不要猶豫關閉系統重新改變方向。
了解數據供應鏈。當依賴外包的現成人工智能系統時,要認識到培訓數據可能反映了供應商自己的偏見或第三方數據集的偏見。同樣需要例行檢查和定期審核。
使用AI來增強,而不是取代。人工智能的能力正在迅速發展,但現實是人工智能仍然需要管理。由于涉及的風險,人力資源團隊應該利用人工智能來增強自己的作用,而不是放任自流。最終的招聘和人力資源決策仍需要人力來做。
人力資源團隊處于一個獨特的位置,以公平和無偏見的方式利用人工智能技術,因為他們已經非常精通偏見和不公平的系統性問題。
認識到人工智能系統所要求的責任,并始終努力了解它們是如何接受培訓并產生結果的。
如果操作正確,人工智能將幫助你的人力資源團隊發現偏見,并及時糾正,提高人力資源職責的效率和效力,并選擇值得推薦的申請人和有價值的員工,使他們的職業生涯更加順利。