學壞容易學好難!人工智能將繼承人類的種族和性別偏見
編者按:桑斯坦在《網絡共和國》當中提出了算法影響我們的認知世界、并在《信息烏托邦》當中***次明確提出了算法使人形成“信息繭房”的危害。這是算法對于人腦的影響,而算法應用于人工智能中,也讓偏見在人工智能當中存在——由于語言本身具有偏見,人工智能通過算法習得了它們,甚至人工智能有可能加強這一偏見。但這是否是一個壞事情,還值得我們探討。
在過去的數年中,諸如谷歌翻譯這樣的程序在語言翻譯方面進步神速,這一進步多虧了新的機器學習技術和大量可獲得的在線文本數據,它們使得算法可以被檢驗。
人工智能(AI)工具徹底變革了計算機翻譯日常用語的能力,但也表現出了顯著的性別和種族偏見。根據《科學》雜志中***的研究表明,隨著機器越容易習得類人的語言能力,它們同樣就越容易習得語言應用范式中根深蒂固的偏見。
隨著越來越多影響我們日常生活的問題讓渡給機器人作出決定,現存的社會不平等和偏見以新的、不可預知的方式被強化,這一發現使這個噩夢縈繞人們心頭。
隨著機器越容易習得類人的語言能力,它們同樣就越容易習得語言應用范式中根深蒂固的偏見。圖片來自: KTS Design/Getty Images/Science Photo Library RF
巴斯大學的計算機科學家和論文的聯合作者Joanna Bryson說:“許多人認為這表明了AI具有偏見。其實并不然,這表明了我們是有偏見的,而AI正在學習這種偏見。”
但Bryson同樣警告說,AI有著加強現存偏見的可能,因為不同于人類,算法無法自覺抵抗習得的偏見。她說:“危險在于AI系統不為道德所駕馭,一旦你擁有了這樣的一個系統,這就糟糕了。”
文字嵌入:獲取單詞背后的文化和社會背景含義
論文聚焦于機器學習工具,即“文字嵌入”,這種機器學習工具已經改變了計算機翻譯演講和文本的方式。有人聲稱下一步自然就是使機器發展出類人能力,比如具有常識判斷和邏輯。
普林斯頓大學的計算機科學家和論文的資深作者Arvind Narayanan說:“我們選擇研究文字嵌入的主要原因,是由于在最近幾年里,幫助機器搞清語言方面的努力已經取得了令人驚嘆的成功。”
這一已經應用于網頁檢索和機器翻譯的方法通過建立起一種語言的數學化表述來發揮作用。在這種數學化的表述下,文字和基于其一同頻繁出現的意義一道,被抽象為一系列數字(即矢量)。盡管這令人驚奇,但算法似乎正在以一種字典也不能定義的方式,獲取一個單詞背后豐富的文化和社會背景含義。
比如,在數學化的“語言空間”中,“花”的單詞總是與具有褒義的詞匯相聯系,而“昆蟲”的單詞則相反,反映出人們對昆蟲和花不同價值的共同觀點。***的論文展示出,一些在人類心理實驗中更為棘手的隱性偏見同樣可以被算法輕而易舉地習得。“女性”和“女人”更易于同藝術人文類崗位和家庭聯系起來,而“男性”和“男人”則是與數理和工程類崗位。同時,人工智能系統更有可能將歐裔美國人的名字與褒義詞聯系起來,比如“天賦”或“快樂”,而非裔美國人的名字一般則更易與貶義詞相聯系。
這一發現表明,人們(至少在英美)在隱性的關聯測試中將褒義詞與白面孔聯系在一起,算法習得了這一偏見。
這些偏見會對人類行為產生深遠影響。曾有研究表明,對于一份完全相同的簡歷,有著歐裔美國人名字的候選人會比有著非裔美國人名字的候選人更有可能獲得面試邀請,這一可能性超過了50%。***的結果顯示,除非明確進行了程序化處理,算法將會充滿同樣的社會偏見。
“如果你不相信人名和種族主義之間存在著聯系的話,這就是證據。”Bryson說。
該研究中,機器學習工具的檢驗基于一個名為“網絡爬蟲”的資料庫——它包含了在線發表的資料,包括8400億個單詞。使用谷歌新聞的數據做檢驗,也得到了相似的結果。
算法為處理偏見提供機會
牛津大學的數據倫理和算法的研究者Sandra Wachter說:“世界是有偏見的,歷史數據是有偏見的,因此我們得到了有偏見的結果也就不足為奇了。”她補充道,“與其說算法代表著一種威脅,它們更能為處理偏見提供機會,以及在合適的時機消除這些偏見。”
“至少我們可能在算法出現偏見的時候獲悉這種偏見,”她說,“而人類呢,卻可以在不雇傭某人的原因上撒謊。相比而言,我們不用指望算法欺騙我們。”
但是Wachter聲稱,未來的挑戰在于,如何在消除算法中不合理的偏見之余,依舊保留它強有力的翻譯能力,畢竟算法是設計來理解語言的。
“理論上我們可以建立系統檢測有偏見的決策并對此采取行動,”Wachter說,她與其他人一道,呼吁建立起針對人工智能的監管,“這是一項復雜的任務,但卻是我們社會不能回避的責任。”