理解AI:為什么要在人工智能系統中尋求可解釋性呢?
本文轉載自公眾號“讀芯術”(ID:AI_Discovery)。
或許這是你第一次聽到人工智能前面加“可解釋的”這個形容詞,但其實它的涵義你一定能理解。可解釋的人工智能(XAI)是指構建AI應用程序的技術和方法,人們借此以理解它們做出特定決策的原因。換句話說,如果我們可以從AI系統獲得有關其內部邏輯的解釋,則該系統可視為可解釋的人工智能系統。
可解釋性是一個新的屬性,在人工智領域初露鋒芒。首先,讓我們深入探討一下這個問題的技術根源。
人工智能是改善生活的增強器
無可置疑,技術進步便于人們獲得更優質的服務。技術是我們生活中不可或缺的一部分,而且不管你喜歡與否,它對生活的影響只會越來越大。
繼計算機和互聯網之后,人工智能再次改變了我們的生活。從五六十年代數學領域的奮力嘗試,到九十年代的專家系統,再到現在人類在AI領域取得的成果——可乘坐自動駕駛汽車,使用谷歌翻譯與外國人交流,利用各種應用程序修圖,使用智能推薦算法尋找最佳餐廳等等。毫無疑問,人工智能對我們生活的影響力正在逐步提高,成為生活中不可或缺的一部分。
但與此同時,人工智能系統錯綜復雜,普通用戶幾乎無法理解其工作原理。我確信只有不到1%的谷歌翻譯用戶知道它是如何工作的,但我們仍信任并廣泛使用該系統。但我們應該了解AI系統的運行路徑,或者至少,能夠在必要的時候獲取其有關信息。
過于注重準確性
數百年來,數學家和統計學家一直在研究傳統的機器學習算法,如線性回歸、決策樹和貝葉斯網絡。這些算法直觀易懂,且發展成熟,基于其中任何一項傳統算法進行的決策,都十分容易解釋,但它們的精確度卻十分有限。因此,我們的傳統算法雖解釋性高,但成就有限。
在麥卡洛克-皮茨神經元之后,一切都改變了,這一發展促進了深度學習領域的創立。深度學習是人工智能的子領域,專注于利用人工神經網絡復制大腦中神經元細胞的工作機制。得益于強大的計算能力和優化的開源深度學習框架,我們能夠構建高精確性的復雜神經網絡。
為達到盡可能高的精確度,人工智能研究人員開始競相研究。這些研究催生了許多出色的AI產品,但也有其弊端——低解釋性能力。
神經網絡極其復雜,它們可以由數十億個參數來構建。例如,Open AI革命性的NLP模型GPT-3有超過1750億的機器學習參數,從這樣一個復雜的模型中獲取任何推理都是一個挑戰。
機器學習算法的準確性VS可解釋性
如圖所示,和深度學習模型相比,采用傳統算法會讓人工智能開發者損失慘重。而且隨著模型精確度日益增加,其解釋性愈加低效。但是,我們卻比以往任何時候都更需要可解釋性。原因如下:
(1) 越來越多的人工智能系統應用于敏感領域
世界日新月異,比你想象得還要快。還記得上世紀端著步槍的戰爭么?現在人工智能無人機已經能夠在沒有人類干預的情況下干掉任何人。一些軍隊已經具備實現這些系統的能力,他們擔心的是無法解釋的結果,他們不想依賴于一些不明工作原理的系統。事實上,美國國防部高級研究計劃署已有一個正在進行的XAI項目。
另一個例子是自動駕駛汽車,特斯拉已實現自動駕駛。這對駕駛員來說是極大的幸事,但這也帶來巨大的責任。汽車在面臨道德困境時會怎么做?在這種情況下,它必須在兩害當中取其輕。自動駕駛汽車是否應該犧牲一條狗的生命來救一個路人?
AI系統的社會影響力不斷提升,我們需要了解它們如何在一般情況下以及在特定事件中做出決策。
(2) 人工智能的指數型發展可能會威脅人類生存
《終結者》很多人都看過,影片中展示了機器是如何變得有自我意識并可能毀滅人類。人工智能十分強大,它可以幫助人類成為一個多行星物種,也可以如世界末日般摧毀人類。
研究表明,超過30%的人工智能專家認為,實現人工通用智能的后果沒有更壞,只有最壞。要想預防災難性的后果,最有力的武器就是了解人工智能系統的工作路徑,以便能夠運用制衡機制。
圖源:unsplash
(3) 解決有關人工智能的爭議需要依據和解釋
隨著過去兩個世紀人權和自由的發展,現行法律法規已要求在敏感領域要有一定程度的可解釋性。法律論證和推理領域也涉及可解釋性的界限問題。
人工智能應用程序替代了一些傳統職業,但這并不意味著它們的操控者不需要給出解釋。他們必須遵守同樣的規則,對服務軟件做出解釋。一般的法律原則要求在發生法律糾紛時操控者對自動決策給出解釋。例如,一輛特斯拉自動駕駛汽車撞上行人的情況。
但是,一般規定原則并不是強制性解釋的唯一理由,也有一些當代的法律法規創造了不同形式的解釋權。歐盟的“通用數據保護條例”(GDPR)已經定義了解釋權,即個人接受自動化決策時,需要對人工智能系統的邏輯進行合理的解釋。
在美國,公民有權獲得對其信貸申請遭拒的解釋。事實上,正如前文圖中所預見的那樣,這一權利迫使信用評分公司在對其客戶評分時采用回歸模型(更具解釋力),以便他們能夠提供強制性解釋。
(4) 消除人工智能系統中的歷史偏差需要解釋性
從歷史上看,人類對于不同群體的歧視從未停止,這也反映在收集的數據中。開發人員訓練人工智能模型時,會把人工智能中帶有偏見和歧視的因素輸入到歷史數據中。如果我們的觀察有種族偏見,模型在做預測時也會投射出這些偏見。
巴特利(Bartlett)的研究表明,在美國,至少有6%的少數族裔的信貸申請因為純粹的歧視而遭受拒絕。因此,用這些有偏見的數據來訓練信用申請系統將會對少數族裔產生毀滅性的影響。作為社會中一員,我們必須了解算法如何工作,人類如何能夠消除偏見,以便保證社會自由、平等和博愛。
(5) 自動化的商業決策需要可靠性和信任
從財務角度來看,可解釋性也是有意義的。利用人工智能系統為公司的銷售和營銷工作推薦特定方案時,你可能想知道其推薦理由。而決策者要對方案負責,所以必須清楚采取該方案的原因。這對于實體企業和金融企業都具有重要意義,尤其是在金融市場,一個錯誤的決策會讓公司損失慘重。
圖源:unsplash
人們需要可解釋AI的原因來自不同的學科和領域,包括社會學、哲學、法律、倫理學和商業界,這足以見得這種需求的廣泛性和急迫性。