人工智能偏見是否是一個需要無偏見視角的開放性問題?
譯文【51CTO.com快譯】盡管人工智能在高度復雜的技術應用中產生偏見令人苦惱,但在特定行業采用的人工智能工具中,仍有一些方法可以識別和緩解人工智能偏見。
隨著人工智能技術的廣泛應用,其帶來的一些問題也得到人們的關注。人工智能最初旨在幫助人類做出更公平、更透明的決定,但現在已經逐漸出現偏見和決策失誤的跡象。但是這種情況不應歸咎于技術,因為導致產生偏見的是數據和場景出現的偏差。
人工智能偏見是怎么回事?
人工智能偏見通常涉及相關算法的異常輸出。此外,任何影響人工智能設置決策的因素都可能導致出現偏見。與人類決策不同,人類決策偏見通常是預定義概念和觀點,而人工智能偏見通常更有針對性,但其起點相似。
眾所周知,人工智能來自人類的設計和構思,因此仍然容易產生隱藏甚至明顯的偏見,這些偏見來自人類。而在人工智能發展的多個階段,滲透到系統設置中的職業和社會傾向會導致偏見。
一個更精確的解釋是,人類在設計決策算法和人工智能模型時就存在偏見。此外根據對人工智能模型的調查,可能有180多種偏見最終影響以人工智能為定義技術的決策。
人工智能偏見的更明確原因
對于初學者來說,當設計設置人工智能模型時不包括受保護的類時,通常會出現人工智能的算法偏差。由于缺乏性別或種族等受保護的類別,采用這樣的人工智能模型沒有足夠的時間做出清晰的決策。此外,對于地理和人口數據等不受保護的見解,對受保護類別的訪問可能會返回不符合標準的結果。
產生人工智能偏見的另一個原因是訓練特定模型的數據集較少。例如,如果一家公司計劃推出基于人工智能的員工招聘工具,則需要在整體數據集上對其進行建模和訓練。如果人工智能模型已經接受了與男性員工工作相關見解的訓練,那么性別偏見似乎是最合乎邏輯的偏見形式。
語言偏見也很常見,并且引起了很多人的關注。與谷歌翻譯(Google Translate)等翻譯平臺相關的自然語言處理(NLP)算法在早些時候曾經因為生成性別特定的翻譯內容而產生爭議,這些翻譯的內容通常返回特定于男性的術語。
無論出于什么原因,人工智能模型的訓練方式都會決定偏見的嚴重程度或性質。此外,某些數據科學家甚至可能最終排除特定條目、采樣不足或采樣過多,從而由于不均衡導致出現人工智能偏見。
不同類型的偏見
(1)選擇偏見
當訓練數據的代表性不足或達到隨機化水平時,這種形式的偏見就會出現。一個很好的例子是一份對人物進行分類的研究報告,其中使用了三種識別圖像的人工智能產品對來自非洲和歐洲國家的1200多名人物進行分類。這項研究表明,對于男性的識別效果更好、更準確,而對女性則更為公平。對于較深膚色的人物識別只有66%的準確率,從而揭示了選擇偏見的影響。
(2)報告偏見
報告偏見通常是未經培訓、不準確或不精確的人工智能模型造成的,這些模型的數據集很難反映現實。此外,大多數顯示報告偏見的模型都是數據科學家設想出來的,他們希望通過貶低相同的歷史假設和較小的樣本空間定義一些特定區域。
(3)隱性偏見
數據科學家未經完善且不嚴格的個人推斷不應該應用于人工智能模型,否則可能會遇到隱性偏見。
(4)群體歸因偏見
這是一種特定類型的偏見導致傾向性人工智能模型的類型。依賴通用外推方法而不是隨機抽樣的數據科學家最終會將這種形式的偏見混入其中。
如何管理人工智能偏見?
典型的人工智能模型仍然可以幫助企業實現所需的目標,但在醫療保健、刑事司法和金融服務等一些更敏感領域的人工智能模型實施中,人工智能偏見成為一個更緊迫的問題。
因此,消除人工智能偏見變得更加重要,因為人們需要采用在種族、年齡和性別范圍內更加準確的人工智能工具。雖然發布的一些人工智能相關法規為認證人工智能供應商鋪平了道路,在將人工智能偏見降至最低方面可能提供一些幫助,但減少人工智能偏見需要更有針對性的方法,其中包括:
(1)包容性設計
如果企業打算設計人工智能模型,最好將人類的判斷排除在范圍之外。需要遵循包容性方法,訓練數量應該包括與將使用該工具的行業相關的大樣本量。
(2)場景考察
人工智能模型正變得越來越智能。但是,如果計劃將其引入特定行業,則必須依賴決策的場景,而不僅僅是前提。
(3)有針對性的測試是關鍵
無論如何,人工智能模型仍應分為子組以改進指標聚合。此外,執行壓力測試以處理復雜案例的方法變得更加容易。簡而言之,需要跨多個階段進行詳細測試以確保減少人工智能偏見。
(4)使用綜合數據訓練模型
如果企業計劃開發一個人工智能工具,必須重視數據的收集、采樣和預處理,還必須整理出人工智能偏見的相關性,這將進一步擴大準確性的范圍。
除了采取這些措施之外,還需要進一步推動人類決策,因為它們大多是人工智能的先驅,并且顯現出很多差異。最后,消除人工智能偏見的最佳建議是通過了解人工智能模型來預測和做出決策,從根本上提高人工智能模型的可解釋性。
結語
盡管人工智能偏見幾乎存在于每個特定行業領域中,但仍依賴負責任的實踐來確保更公平的模型和算法。此外,采用人工智能技術的企業需要不斷進行審計和評估,以進一步改進決策質量。
原文標題:Is AI Bias an Open-Ended Issue that needs an Unbiased Perspective?,作者:Ananda Banerjee
【51CTO譯稿,合作站點轉載請注明原文譯者和出處為51CTO.com】