是否有可能讓人工智能變得更加透明?
為了使人工智能在道德上更加合理和實用,增強深度神經網絡的可解釋性是至關重要的。
人工智能工作的透明度可能會讓那些將該技術融入日常運營的組織感到頭疼。那么,該如何做才能消除對可解釋人工智能需求的擔憂呢?
人工智能在任何行業的深遠優勢都是眾所周知的。我們意識到這項技術是如何幫助世界各地成千上萬的企業加快他其運營速度,并使之更有想象力地使用員工。此外,人工智能的長期成本和數據安全效益也被一些技術專欄作家和博主無數地記錄下來。不過,人工智能確實存在相當多的問題。其中一個問題是,這項技術的決策有時令人懷疑。但更重要的是,更大的問題是,當人工智能驅動的系統出現令人尷尬或災難性的錯誤時,都會略微缺乏可解釋性。
人類每天都會犯錯誤。然而,我們清楚地知道錯誤是如何產生的。可以采取一系列明確的糾正措施,以避免今后重蹈覆轍。然而,AI的一些錯誤是無法解釋的,因為數據專家不知道算法是如何在操作過程中得出特定結論的。因此,對于計劃將該技術應用到日常工作中的組織和已經將其納入其中的組織來說,可解釋的人工智能應該是首要優先考慮的問題。
讓人工智能變得可解釋的原因
關于人工智能的一個常見謬誤是,它完全不會犯錯。神經網絡,尤其是在其早期階段,可能會出錯。同時,這些網絡以非透明的方式執行其命令。如前所述,人工智能模型到達特定結論的路徑在操作過程中的任何時刻都不明確。因此,即使是經驗豐富的數據專家,也幾乎不可能解釋這樣的錯誤。
人工智能的透明度問題在醫療保健行業尤為突出。試想一下這個例子:一家醫院有一個神經網絡或一個黑盒子AI模型,用于診斷病人的腦部疾病。該智能系統經過訓練,可以從過去的記錄和患者現有的醫療文件中查找數據模式。使用預測分析,如果模型預測對象在未來容易患上與大腦相關的疾病,那么預測背后的原因通常不是百分之百清楚。對于私人和公共機構來說,以下是讓人工智能工作更加透明的4個主要原因:
1、問責
如前所述,利益相關者需要知道AI模型決策過程背后的內部運作和推理邏輯,尤其是對于意外的建議和決定。一個可解釋的人工智能系統可以確保算法在未來做出公平和道德的建議和決定。這可以提高組織內部人工智能神經網絡的合規性和信任度。
2、更大的控制權
可解釋的人工智能通常可以防止工作操作中發生系統錯誤。關于人工智能模型現有弱點的更多知識可用于消除它們。因此,組織可以更好地控制AI系統提供的輸出。
3、改進
眾所周知,人工智能模型和系統需要不時地進行持續改進。可解釋的人工智能算法將在定期的系統更新過程中變得更加智能。
4、新發現
新的信息線索將使人類能夠發現當前時代重大問題的解決方案,如治療HIV AIDS的藥物或療法、處理注意力缺陷障礙的方法。更重要的是,這些發現將有確鑿的證據和普遍核查的理由作為支持。
在人工智能驅動的系統中,透明度可以以人類可以理解的自然語言的分析語句的形式顯示,突出顯示用于制定輸出決策的數據的可視化、顯示支持給定決策的點的案例,或突出顯示系統拒絕其他決策的原因的語句。
近年來,可解釋人工智能領域得到了發展和擴展。最重要的是,如果這種趨勢在未來繼續下去,那么企業將能夠使用可解釋的人工智能來提高其產出,同時了解每個由人工智能支持的關鍵決策背后的基本原理。
雖然這些是人工智能需要更加透明的原因,但仍有一些障礙阻止了同樣的事情發生。其中一些障礙包括:
人工智能責任悖論
眾所周知,可解釋的人工智能可以提高人工智能系統的公平性、信任度和合法性等方面。然而,一些組織可能不太熱衷于增加其智能系統的責任感,因為可解釋的人工智能可能會帶來一系列問題。其中一些問題是:
竊取AI模型運行的重要細節。
由于對系統漏洞的了解增加,外部實體的網絡攻擊威脅。
除此之外,許多人認為,在人工智能系統中揭露和披露機密決策數據會使組織容易受到訴訟或監管行動的影響。
為了不受這種“透明度悖論”的影響,企業必須考慮與可解釋人工智能相關的風險與其明顯的好處。企業必須有效地管理這些風險,同時確保由可解釋的人工智能系統生成的信息不會被淡化。
此外,企業必須明白兩件事:首先,讓人工智能透明化的相關成本不應阻止其整合此類系統。企業必須制定風險管理計劃,以適應可解釋的模型,使其提供的關鍵信息保持機密。其次,企業必須改進其網絡安全框架,以檢測和消除可能導致數據泄露的漏洞和網絡威脅。
人工智能的黑匣子問題
深度學習是人工智能不可或缺的一部分。深度學習模型和神經網絡通常以無監督的方式進行訓練。深度學習神經網絡是人工智能的關鍵組成部分,涉及圖像識別和處理、高級語音識別、自然語言處理和系統翻譯。不幸的是,雖然與常規機器學習模型相比,這種AI組件可以處理更復雜的任務,但深度學習也會在日常操作和任務中引入黑匣子問題。
正如所知,神經網絡可以復制人腦的工作。人工神經網絡的結構是模仿真實的神經網絡。神經網絡是由幾層相互連接的節點和其他“隱藏”層創建的。雖然這些神經節點執行基本的邏輯和數學運算來得出結論,但也足夠智能和直觀,可以處理歷史數據并從中生成結果。真正復雜的操作涉及多個神經層和數十億個數學變量。因此,從這些系統生成的輸出幾乎沒有機會得到組織中的AI專家的全面驗證和確認。
Deloitte和Google等組織正在致力于創建工具和數字應用程序,這些工具和應用程序可以沖破黑匣子,揭示用于做出關鍵人工智能決策的數據,以提高智能系統的透明度。
為了讓人工智能更負責任,組織必須重新設想其現有的人工智能治理策略。以下是改善治理可以減少基于透明度的人工智能問題的一些關鍵領域。
系統設計
在初始階段,組織可以在構建AI系統和訓練神經網絡時優先考慮信任和透明度。密切關注人工智能服務提供商和供應商如何設計人工智能網絡,可以提醒組織中的關鍵決策者有關AI模型的能力和準確性的早期問題。通過這種方式,在系統設計階段有一個實際操作的方法可以揭示一些AI基于透明度的問題,供組織觀察。
合規
隨著世界各地的人工智能法規在人工智能責任方面變得越來越嚴格,組織可以從使其AI模型和系統符合這些規范和標準中真正受益。組織必須推動其人工智能供應商創建可解釋的人工智能系統。為了消除人工智能算法中的偏見,企業可以接觸基于云的服務提供商,而不是聘請昂貴的數據專家和團隊。組織必須通過明確指示云服務提供商在其工作場所安裝和實施AI系統期間勾選所有與合規相關的方框,來減輕合規負擔。除了這些要點之外,組織還可以在其AI治理計劃中包括隱私和數據安全等方面的要點。
自世紀之交以來,我們取得了一些最令人震驚的技術進步,其中包括人工智能和深度學習。幸運的是,盡管100%可解釋的人工智能還不存在,但人工智能驅動的透明系統的概念并不是一個無法實現的夢想。這取決于實施這些系統的組織如何改善其人工智能治理,并為實現這一目標承擔風險。