用更好的人工智能建設更美好的社會
人工智能 (AI) 具有巨大的潛力,可以通過創新來改善社會的方方面面,從傳統工程系統到醫療保健,再到藝術和娛樂領域的創意過程。例如,在好萊塢,制片廠正在使用人工智能來揭示和衡量劇本中的偏見——制片人和編劇需要這些工具來創造更公平和更具包容性的媒體。
然而,人工智能的智能程度取決于它所訓練的數據,而這些數據反映了現實生活中的偏見。為了避免長期存在刻板印象和排他性,技術人員正在解決現實生活和創新中的公平和包容問題。
人類天生的偏見
由于技術人員希望使用 AI 來尋找以人為中心的解決方案來優化行業實踐和日常生活,因此,注意我們與生俱來的偏見可能會產生意想不到的后果至關重要。
“作為人類,我們有很大的偏見,”德勤人工智能研究所全球負責人、德勤技術和人工智能倫理負責人 Ammanath說。“隨著這些偏見融入系統,社會各部分很可能被拋在后面——代表性不足的少數族裔,無法使用某些工具的人——這可能會導致世界上更多的不平等。”
如果系統是用有偏見的數據訓練出來的,或者研究人員沒有考慮到他們自己的觀點如何影響研究方向,那么出發點是好的項目——創造平等的結果或減輕過去的不平等——最終仍可能產生偏見。
Ammanath表示,到目前為止,對 AI 偏見的調整通常是對發現有偏見的算法或事后出現的代表性不足的人口統計數據做出的反應。但是,企業現在必須學習如何積極主動,盡早緩解這些問題,并為他們的人工智能工作中的失誤承擔責任。
人工智能中的算法偏差
在人工智能中,偏見以算法偏見的形式出現。“算法偏差是構建 AI 模型的一系列挑戰,”惠普實驗室首席架構師兼惠普企業 (HPE) 副總裁 Kirk Bresniker 解釋說。“我們可能會遇到挑戰,因為我們的算法無法處理不同的輸入,或者因為我們沒有收集到足夠廣泛的數據集來整合到我們的模型訓練中。無論哪種情況,我們都沒有足夠的數據。”
算法偏差也可能來自不準確的處理、數據被修改或有人注入錯誤信號。無論有意與否,這種偏見都會導致不公平的結果,可能會賦予一個群體特權或完全排除另一個群體。
例如,Ammanath 描述了一種算法,旨在識別不同類型的鞋子,例如人字拖、涼鞋、正裝鞋和運動鞋。然而,當它發布時,該算法無法識別帶高跟鞋的女鞋。開發團隊是一群剛畢業的大學畢業生——都是男性——他們從沒想過用女鞋訓練它。
“這是一個微不足道的例子,但你意識到數據集是有限的,”Ammanath 說。“現在考慮使用歷史數據來診斷疾病或疾病的類似算法。如果它沒有針對某些體型、某些性別或某些種族進行訓練怎么辦?這些影響是巨大的。”
“至關重要的是,她說,如果你沒有那種多樣性,你就會錯過某些場景。”
更好的人工智能意味著自我監管和道德準則
簡單地獲取更多(和更多樣化)的數據集是一項艱巨的挑戰,尤其是在數據變得更加集中的情況下。數據共享帶來了許多問題,其中最重要的是安全和隱私。
科羅拉多大學博爾德分校媒體研究助理教授 Nathan Schneider 表示:“目前,我們面臨的情況是,個人用戶的權力遠低于收集和處理其數據的大型公司。”
擴展的法律和法規很可能最終會規定何時以及如何共享和使用數據。但是,創新不會等待立法者。目前,人工智能開發組織有責任成為優秀的數據管家,保護個人隱私,同時努力減少算法偏差。德勤的 Ammanath 表示,由于技術成熟得如此之快,不可能依靠法規來涵蓋所有可能的情況。“我們將進入一個在遵守現有法規和自我監管之間取得平衡的時代。”
這種自我監管意味著提高構建人工智能解決方案的整個技術供應鏈的標準,從數據到培訓再到使這些解決方案成為可能所需的基礎設施。此外,企業需要為跨部門的個人創造途徑,以提出對偏見的擔憂。雖然不可能完全消除偏見,但企業必須定期審核其人工智能解決方案的有效性。
由于人工智能的高度情景語境性質,每家企業的自我監管看起來都不同。例如,HPE 制定了道德 AI 準則。來自整個公司的各種不同的人花了將近一年的時間共同制定公司的人工智能原則,然后與廣泛的員工一起審查這些原則,以確保它們可以被遵循并且它們對企業文化有意義。
HPE 的 Bresniker 說:“我們希望提高對這些問題的一般理解,然后收集最佳實踐。這是每個人的工作——在這個領域有足夠的認知。”
人工智能技術已經成熟,從研究發展到實際應用和價值創造,遍及所有行業。人工智能在社會上的日益普及意味著企業現在有道德責任提供強大的、包容的和可訪問的解決方案。這種責任促使組織(有時是第一次)檢查他們拉入流程的數據。 Bresniker說:“我們希望人們能建立起這種遠見,對輸入的數據有可衡量的信心。”“他們有能力阻止持續的系統性不平等,為更美好的未來創造公平的結果。”