成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

打開AI的黑匣子:“可解釋的”人工智能(XAI)認知攻略!

開發 開發工具 人工智能
“可解釋的”人工智能并不是一個新的研究領域,它是自80年代以來就存在的支持復雜AI系統的推理架構,可以看作是人工智能設計的自然結果。

如今,企業組織越來越依賴人工智能和機器學習模型進行決策,可以說這些決策正在影響我們生活的方方面面,例如,銀行使用人工智能來確定是否向客戶提供信貸以及信貸額度;醫療放射科部署人工智能來幫助區分健康組織和腫瘤;人力資源團隊使用人工智能從海量簡歷中篩選合適的應聘者。

[[424248]]

2019年,歐盟出臺的《人工智能道德準則》中明確提出,人工智能的發展方向應該是“可信賴的”,能夠包含安全、隱私和透明、可解釋等多個方面。但隨著人工智能技術不斷普及,由此產生的風險也浮出水面,主要體現在兩大方面:

  • 信任危機,即能否信任和依賴人工智能算法輸出的結果。
  • 道德危機,Deepfake技術的出現在帶來新鮮感的同時,也引發了人們對于深度學習和人工智能技術濫用的擔憂。

“黑盒”人工智能

如今,許多機器學習應用程序不允許人們完全理解其功能或背后的邏輯,以實現稱為“黑盒”的效果,鑒于此,如今的機器學習模型大多是“黑盒”。

這個特性被認為是人工智能技術應用的最大問題之一,它讓機器決策變得不透明,甚至專家或開發人員自己也常常難以理解,這也降低了企業對特定領域的機器學習和人工智能的信任感。

【黑盒AI和XAI】

可以說,傳統的“黑盒”人工智能程序存在以下問題:

  • 難以驗證輸出是否“正確”;
  • 難以理解人工智能系統“哪里出錯”,然后進行改進;
  • 難以理解創作者的偏見和不公。

因此,了解人工智能算法預測背后的原因至關重要,這不僅可以增強人們對人工智能算法的信心,還可以提供對模型的見解或允許對開發的算法執行調試過程。

公眾愈發有興趣了解這些算法背后的過程,原因之一是各種國際法(例如歐盟GPDR)的引入提高了公眾對隱私的敏感度,這些法律對隱私領域施加了高水平的保護,同時在信息處理過程中要求了更高的透明度,這也是人工智能算法目前正在努力實現的目標。

所有這一切都轉化為對人工智能算法透明度日益增長的需求。而人工智能背景下對透明度的需求也進一步推動了所謂的“可解釋的”人工智能(XAI)的發展,它代表了一組技術,可以理解和呈現機器學習模型和人工智能算法的透明愿景。

什么是“可解釋的”人工智能?

“可解釋的”人工智能并不是一個新的研究領域,它是自80年代以來就存在的支持復雜AI系統的推理架構,可以看作是人工智能設計的自然結果。

人工智能的未來可能取決于它允許人們與機器協作解決復雜問題的能力。與任何高效協作一樣,這需要良好的溝通、信任和理解,而可解釋的人工智能旨在應對這些挑戰。

簡單來說,可解釋的人工智能是組織用來幫助人們更好地理解模型為何做出某些決策及其工作原理的一組工具和技術。XAI是:

  • 一組最佳實踐:它利用數據科學家多年來一直使用的一些最佳程序和規則來幫助其他人了解模型是基于哪些數據進行訓練的,還揭示了模型可能暴露于哪些偏見來源;
  • 一組設計原則:研究人員越來越關注簡化AI系統的構建,使其本質上更易于理解;
  • 一組工具:隨著系統變得更容易理解,可以通過將這些知識融入其中來進一步完善訓練模型,并通過向其他人提供這些知識以納入他們的模型。

XAI為什么很重要?

對于組織而言,通過模型監控和人工智能問責制全面了解人工智能決策過程,而不是盲目信任它們,這一點至關重要。可解釋的人工智能可以幫助人類理解和解釋機器學習(ML)算法、深度學習和神經網絡。

ML模型通常被認為是無法解釋的黑匣子;深度學習中使用的神經網絡是人類最難理解的部分;偏見(通常基于種族、性別、年齡或位置)一直是訓練AI模型所面臨的長期風險。此外,由于生產數據與訓練數據不同,人工智能模型性能可能會受到影響甚至降低。這使得持續監控和管理模型以促進人工智能可解釋性變得至關重要。

可解釋的人工智能有助于促進最終用戶的信任、模型可審計性和人工智能的高效使用,同時還降低了使用人工智能所面臨的合規性、法律、安全和聲譽風險。此外,借助可解釋的人工智能,企業可以排除故障并提高模型性能,同時幫助利益相關者了解人工智能模型的行為。

其優勢可以概括為:

  • 簡化模型評估過程,同時提高模型透明度和可追溯性;
  • 系統地監控和管理模型以優化業務成果,不斷評估和改進模型性能;
  • 加快獲得AI結果的時間;
  • 降低模型治理的風險和成本;

可解釋的人工智能是實施“負責任的”人工智能的關鍵要求之一,具有公平性、模型可解釋性和問責制。為了實現負責任地采用人工智能,組織需要通過構建基于信任和透明度的人工智能系統,將道德原則嵌入人工智能應用程序和流程中。

XAI的應用實例

如今,可解釋的人工智能正在改變各種垂直市場的游戲規則:

  • 醫療衛生:加速診斷、圖像分析和資源優化,提高患者護理決策的透明度和可追溯性,同時還能簡化藥品審批流程。
  • 金融服務:通過透明的貸款和信貸審批流程改善客戶體驗,加快信用風險、財富管理和金融犯罪風險評估,加速解決潛在的投訴和問題,提高對定價、產品推薦和投資服務的信任度。
  • 刑事司法:優化預測和風險評估流程。在DNA分析、監獄人口分析、欺詐檢測和犯罪預測方面使用可解釋的人工智能加速解決問題。檢測訓練數據和算法中的潛在偏差。

可解釋的人工智能的五個注意事項:

  • 公平和消除偏見:管理和監控公平,掃描用戶部署以查找潛在的偏見;
  • 模型偏離緩解:分析模型并根據最合乎邏輯的結果提出建議。當模型偏離預期結果時發出警報;
  • 模型風險管理:量化和減輕模型風險。當模型表現不佳時發送警報。了解當偏差持續存在時會發生什么;
  • 生命周期自動化:構建、運行和管理模型作為集成數據和AI服務的一部分。統一平臺上的工具和流程以監控模型和共享結果,解釋機器學習模型的依賴關系;
  • 多云就緒:跨混合云部署AI項目,包括公共云、私有云和本地。通過可解釋的AI促進信任和信心。

當今時代,人們迫切需要可解釋的人工智能,而“負責任”和“可解釋”的人工智能也確實將會是取得利益雙方信任及滿足未來合規需求的基石,但想要實現這一目標無疑是道阻且長的。

【本文是51CTO專欄作者“安全牛”的原創文章,轉載請通過安全牛(微信公眾號id:gooann-sectv)獲取授權】

戳這里,看該作者更多好文

 

責任編輯:趙寧寧 來源: 51CTO專欄
相關推薦

2023-09-20 11:42:44

人工智能AI

2023-07-11 07:59:18

2025-06-18 02:00:00

人工智能AI大模型

2023-11-27 14:48:34

人工智能深度學習大語言模型

2013-03-27 10:40:29

2022-03-25 13:56:37

黑匣子數據分析數據

2024-05-28 08:00:00

人工智能機器學習

2014-01-17 13:59:14

騰訊開放平臺

2025-05-29 03:20:00

2022-04-12 14:13:01

云計算云存儲黑匣子

2023-09-04 14:09:13

2024-01-16 17:23:39

AI數據

2022-09-08 10:32:24

AI人工智能

2022-11-04 16:23:30

AI人工智能

2022-06-09 16:35:31

人工智能安全數據暴露

2019-06-11 16:06:10

人工智能AI自動駕駛

2019-06-04 05:52:20

神經網絡可視化CNN)

2022-07-29 15:28:45

人工智能Python框架

2024-08-12 10:52:00

AI模型

2018-05-23 09:20:12

人工智能機器學習技術
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 国产91网站在线观看 | 中文字幕成人在线 | 一区二区在线不卡 | 97色综合| 国产成人叼嘿视频在线观看 | 国产成人jvid在线播放 | 欧美激情精品久久久久 | 中文在线视频 | 日韩一区二区三区在线视频 | 国产精品欧美一区喷水 | 国产精品久久久久久久久久免费看 | 国产一级特黄真人毛片 | 亚洲欧美日韩精品 | 蜜桃视频成人 | 天天综合久久 | 精品国产31久久久久久 | 在线亚洲人成电影网站色www | 亚洲精品视频免费观看 | 麻豆视频国产在线观看 | 日韩欧美一区在线 | 国产在线看片 | 97中文视频 | 黄色网毛片 | 亚洲国产一区视频 | 在线视频h | 亚洲第一黄色网 | 亚洲一级毛片 | 天天夜夜操 | 国产精品美女久久久免费 | 久久精品成人 | 久久小视频 | 成人精品一区二区三区 | 国产一区二区三区在线视频 | 99色综合| 国产一区二区三区不卡av | 91精品国产91久久久久久最新 | 91精品久久久久 | 国产欧美一区二区三区免费 | 九色av | 国产美女久久久 | 性色av一区二区三区 |