成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難

發布于 2025-6-9 00:13
瀏覽
0收藏

隨著人工智能(AI)和機器學習(ML)在金融、醫療、自動駕駛等高風險、高影響力的關鍵領域日益普及,對其決策過程透明度和可解釋性的需求變得前所未有地迫切。復雜的模型,如深度神經網絡和集成樹模型,常因其內部運作機制難以捉摸而被視為“黑箱”,這嚴重制約了它們在實際應用中的可靠性、公平性以及用戶的信任度。可解釋人工智能(Explainable AI, XAI)致力于開發能夠使人類理解、信任并有效管理 AI 系統決策過程的方法與技術。在眾多 XAI 技術中,由 Lundberg 和 Lee 于 2017 年提出的 SHAP (SHapley Additive exPlanations) 框架,憑借其堅實的博弈論理論基礎、廣泛的模型適用性以及統一多種解釋方法的能力,獲得了學術界和工業界的廣泛關注。SHAP 旨在通過計算每個輸入特征對模型單次預測結果的貢獻度(即 SHAP 值),來解釋任何機器學習模型的預測行為。它不僅揭示了特征影響的方向(正向或負向)和強度,還能提供局部(針對單一樣本)和全局(模型整體行為)層面的解釋,極大地增強了模型的可理解性。本報告旨在全面、深入地綜述 SHAP 的核心框架、理論基礎、關鍵方法論、主要解釋器算法、廣泛的應用場景,并探討其面臨的挑戰、局限性以及未來的發展方向。

1. 引言

人工智能(AI)和機器學習(ML)技術的飛速發展,使其在金融風控、臨床診斷、自動駕駛決策等關鍵領域的應用日益深化。然而,許多高性能模型,特別是深度神經網絡和梯度提升樹等集成模型,其復雜的內部結構導致決策過程不透明,形成了所謂的“黑箱”問題。這種缺乏透明度不僅阻礙了模型的調試和優化,更在關鍵應用中引發了對可靠性、公平性、問責制以及用戶信任度的嚴重擔憂。

為了應對這一挑戰,可解釋人工智能(Explainable AI, XAI)應運而生,其目標是開發能夠揭示 AI 模型決策邏輯、使人類能夠理解、評估并信任這些系統的技術和方法。在 XAI 的眾多技術浪潮中,SHAP (SHapley Additive exPlanations) 框架以其獨特的優勢脫穎而出。SHAP 由 Scott Lundberg 和 Su-In Lee 在 2017 年提出,其核心貢獻在于:

  • 統一解釋方法:將 LIME (Local Interpretable Model-agnostic Explanations)、DeepLIFT (Deep Learning Important FeaTures) 等多種現有模型解釋方法置于一個共同的理論框架——可加性特征歸因方法之下。
  • 擁有堅實的理論基礎:根植于合作博弈論中的 Shapley 值,為特征貢獻的“公平”分配提供了數學上嚴謹的保證。
  • 提供模型無關與特定優化:既有模型無關的解釋器(如 KernelSHAP),也為特定模型(如樹模型、深度學習模型)開發了高效的優化算法(如 TreeSHAP、DeepSHAP)。
  • 同時支持局部與全局解釋:它主要計算每個特征對單次預測的貢獻(局部解釋),并通過聚合這些局部貢獻提供可靠的全局特征重要性度量。

SHAP 通過為每個特征分配一個 SHAP 值,量化該特征對特定預測結果(相對于某個基線預測)的推動作用(正向或負向)及其強度。這種細粒度的歸因分析使得用戶能夠深入理解模型為何做出某個具體的決策。本報告將系統性地梳理 SHAP 框架,從其核心概念和理論基礎出發,詳細介紹主要的 SHAP 解釋器算法及其工作原理,展示其在不同領域的廣泛應用,并深入探討其固有的局限性、面臨的挑戰以及最新的研究進展與未來展望。

2. SHAP 框架核心概念

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

3. SHAP 解釋器與算法

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

Interventional TreeSHAP: 嘗試通過模擬對特征的干預效果來估計 SHAP 值,其目標更接近原始 Shapley 值的合作博弈論定義。它假設當一個特征“缺失”時,我們對其進行了干預,使其取值獨立于其他特征(通常通過從其邊緣分布中采樣或使用背景數據的平均值替代)。這種方法在特征相關時,可能因為打破了特征間的依賴關系而生成不太現實的內部數據表示,但其解釋更側重于特征的因果貢獻。

Path-dependent TreeSHAP (通常是 ??shap?? 庫中的默認實現,也稱為 Observational TreeSHAP): 它通過計算給定路徑上已知特征條件下的期望預測值來處理特征“缺失”。這種方法考慮了特征間的依賴關系,避免了生成在數據分布中不太可能出現的特征組合。然而,它定義的價值函數與原始 Shapley 值的價值函數有所不同,更側重于特征的信息價值而非純粹的因果貢獻。有時,這可能導致對預測沒有實際影響的特征(但在特定路徑上提供了信息)獲得非零的 SHAP 值,從而可能產生一些反直覺的解釋。 盡管存在這些差異和潛在的解讀挑戰,由于其計算效率和(相對于其定義的價值函數而言的)精確性,TreeSHAP 仍然是解釋樹模型的首選方法。用戶需要了解自己所使用的 TreeSHAP 版本及其背后的假設,以便正確解讀結果。

  • DeepSHAP: 對于深度學習模型(主要是神經網絡),DeepSHAP(通常通過??shap??? 庫中的??DeepExplainer?? 實現)是一種常用的近似 SHAP 值計算算法。它基于 DeepLIFT (Deep Learning Important FeaTures) 算法,并將其與 Shapley 值的思想相結合。DeepLIFT 的核心思想是通過比較每個神經元的激活值與其“參考激活值”(通常基于背景或基線輸入計算得到)之間的差異,并將這些差異沿著神經網絡反向傳播,從而將預測結果的差異分配給輸入特征。DeepSHAP 實質上可以看作是對多個不同的背景(或參考)樣本應用 DeepLIFT 算法,然后對得到的結果進行平均,以此來近似每個特征的 SHAP 值。它利用神經網絡的可微性以及特定的傳播規則(類似于反向傳播,但有所修改),能夠相對高效地計算特征貢獻。DeepSHAP 通常比 KernelSHAP 在計算速度上快得多,但它仍然是一種近似方法。其結果的準確性和穩定性依賴于 DeepLIFT 算法本身的假設、背景(或參考)樣本的選擇,并且其解釋結果可能對背景樣本的選取較為敏感。
  • GradientExplainer: GradientExplainer 實現的是期望梯度 (Expected Gradients) 算法,這是另一種用于可微分模型(尤其是神經網絡)的 SHAP 值近似方法。該方法結合了 Shapley 值的思想和積分梯度 (Integrated Gradients, IG) 方法。積分梯度通過在從基線輸入到實際輸入的直線上對梯度進行積分來為每個特征分配重要性。期望梯度則通過使用多個背景(或基線)樣本,并對每個背景樣本計算積分梯度,然后對這些結果進行平均,從而近似 Aumann-Shapley 值(Shapley 值在可微函數上的一種推廣),并旨在滿足 SHAP 的加性特性。GradientExplainer 通常比 DeepSHAP 的計算速度更慢,因為它需要對每個待解釋的樣本和多個背景樣本(用于積分路徑的端點)計算梯度。其結果依賴于背景樣本的隨機采樣,因此需要足夠數量的背景樣本才能使 SHAP 值估計收斂,并且在收斂之前可能不完全滿足局部準確性(效率性)公理。

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

流行的 ??shap??? Python 庫提供了一個通用的 ??shap.Explainer?? 接口,它能夠根據傳入的模型類型自動選擇合適的解釋器。盡管如此,用戶深入理解各個解釋器的具體特性、背后的假設、適用場景以及潛在的局限性,對于做出明智的選擇、合理調整參數并正確解讀最終的解釋結果至關重要。

4. SHAP 的應用

SHAP 框架及其工具在機器學習實踐中有著廣泛的應用。

其核心應用在于模型的解釋與調試。通過計算單個預測的 SHAP 值(即局部解釋),用戶可以理解模型為何對特定實例做出某個具體的預測。例如,在金融領域,可以解釋為何某個客戶的信貸申請被拒絕,列出導致拒絕的主要風險因素及其貢獻程度。這對于那些需要提供決策依據、滿足合規性要求或僅僅是希望理解模型行為的場景至關重要。同時,檢查 SHAP 值也有助于模型的調試。通過分析特征的貢獻,可以發現模型是否學習到了數據中虛假的關聯(spurious correlations),或者模型是否表現出不期望的偏見。例如,可以識別模型是否過度依賴于那些與目標變量在訓練數據中偶然相關但并無真實因果關系的特征,或者檢查受保護屬性(如種族、性別)的 SHAP 值以評估模型的公平性。

另外,實踐中經常通過聚合大量單個樣本的 SHAP 值,可以獲得全局特征重要性的度量,這有助于理解模型在整體上最依賴哪些特征,并可用于指導特征選擇過程。一種常見的做法是計算數據集中所有樣本的 SHAP 值的平均絕對值(mean(|SHAP value|)),以此作為衡量每個特征整體影響力的指標。基于 SHAP 的特征重要性通常被認為比一些傳統的特征重要性度量方法(例如基于決策樹的 Gini importance 或分裂次數)更加一致和可靠,因為它滿足一致性公理。基于此重要性排序可以指導特征選擇,移除影響小的特征以簡化模型、降低過擬合風險。

SHAP 框架成功的關鍵因素之一在于其提供了豐富的可視化與交互探索工具,這些工具極大地增強了 SHAP 解釋的可理解性和實用性。主要的可視化方法包括:

  • 瀑布圖 (Waterfall Plot):清晰地展示了對于單個預測,各個特征的 SHAP 值如何一步步地將模型的預測輸出從基線值(通常是平均預測值)推向最終的預測值。圖中直觀地顯示了每個特征貢獻的正負和大小。
  • 力圖 (Force Plot):以一種“力”的隱喻來可視化單個預測的特征貢獻,紅色特征(正 SHAP 值)將預測推高,藍色特征(負 SHAP 值)將預測拉低,直觀地顯示了驅動預測結果的關鍵因素及其相對強度。多個樣本的力圖也可以堆疊起來,形成對整個數據集或某個子集的全局概覽。

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

  • 摘要圖 (Summary Plot / Beeswarm Plot):這是一種非常強大的全局解釋圖。它通常將每個特征的 SHAP 值分布以散點圖(蜂群圖)的形式展示出來,其中每個點代表一個樣本的一個特征的 SHAP 值。點的顏色通常表示原始特征值的高低,這有助于揭示特征值與其對預測影響之間的關系。同時,該圖也按特征的全局重要性(通常是平均絕對 SHAP 值)進行排序,清晰地展示了哪些特征對模型整體影響最大。

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

  • 依賴圖 (Dependence Plot):用于探索單個特征的取值與其對應的 SHAP 值之間的關系。圖中每個點代表一個樣本,橫軸是特征值,縱軸是該特征的 SHAP 值。通過觀察點的分布模式,可以了解特征對其貢獻的影響是否是線性的、單調的或其他更復雜的形式。此外,依賴圖通常還可以通過用另一個特征的取值對點進行著色,從而幫助發現特征之間的交互作用。

告別AI“黑箱”!SHAP全面指南,讓模型解釋不再難-AI.x社區

這些強大的解釋能力使得 SHAP 在眾多特定領域都得到了廣泛的應用:

  • 金融風控領域,SHAP 被用于解釋信貸評分模型、欺詐檢測系統等,幫助金融機構理解模型決策依據,滿足監管機構對透明度和可解釋性的要求(如 GDPR 中的“解釋權”),并提升風險管理水平。
  • 醫療健康領域,SHAP 用于解釋疾病診斷模型(例如基于醫學影像或臨床數據的癌癥檢測)、患者預后預測模型等。這不僅有助于增強臨床醫生對 AI 輔助診斷系統的信任,還能幫助識別對特定診斷或預后起關鍵作用的生物標記物或風險因素,甚至可能發現模型學到的一些與現有醫學常識不符或需要進一步研究的模式。
  • 計算機視覺領域,雖然原始 SHAP 主要針對表格數據,但已有擴展方法(如通過與 Grad-CAM 等技術結合或使用 KernelSHAP 對圖像區域/超像素進行歸因)來解釋圖像分類、目標檢測等模型的決策依據,例如生成突出顯示圖像中對模型決策貢獻最大的區域的顯著性圖 (saliency maps)。
  • 自然語言處理 (NLP)領域,SHAP 可用于解釋文本分類、情感分析、機器翻譯等任務中,不同詞語或文本片段對模型最終輸出(如類別標簽、情感傾向)的貢獻程度。
  • 此外,SHAP 還被應用于更廣泛的科學與工程研究領域,例如在材料科學中解釋新材料屬性的預測模型,在地球科學中理解氣候模型的預測,或在工程領域分析復雜系統的仿真模型,幫助研究人員從數據驅動的模型中提取科學洞見和理解潛在的物理或化學模式。

5. SHAP 的局限性與挑戰

盡管 SHAP 功能強大且廣受歡迎,但并非沒有局限性和挑戰,理解這些對于恰當使用和正確解讀其結果至關重要。

  • 計算復雜度: 一個顯著的挑戰是其計算復雜度。如前所述,精確計算 Shapley 值對于具有中等數量以上特征的模型來說是計算上不可行的。作為通用近似方法的 KernelSHAP,由于需要對大量擾動樣本進行模型評估,其計算速度通常非常緩慢。即使是針對特定模型類別優化的近似方法,如 DeepSHAP 和 GradientExplainer,其計算成本也與所選用的背景(或參考)樣本數量成正比,對于大型模型或大數據集,仍然可能相當耗時。雖然 TreeSHAP 在計算速度上具有明顯優勢,但其適用范圍僅限于基于樹的模型。
  • 處理特征依賴關系:處理特征之間的依賴關系是 SHAP 應用中的另一個核心難題和持續引發討論的議題。當特征之間存在相關性時,如何定義和計算一個特征“缺失”時的模型行為,對 SHAP 值的計算和解釋至關重要。

KernelSHAP通常通過從特征的邊緣分布中獨立采樣來模擬特征“缺失”,這隱含了特征獨立的假設。當特征高度相關時,這種方法可能會生成在現實數據分布中不太可能出現的“虛假”數據點,從而可能導致 SHAP 值的估計產生偏差。

TreeSHAP提供了不同的策略。其默認的“路徑依賴”(或稱為條件期望/Observational TreeSHAP)模式,通過在樹的路徑上基于已知特征的條件分布來估計期望預測,從而在一定程度上考慮了特征依賴,避免了生成不切實際的數據點。然而,這種方法改變了原始 Shapley 值定義的價值函數,其解釋更側重于特征在給定其他特征信息下的“信息價值”,有時可能將重要性歸因于那些對預測結果沒有直接因果影響但在特定條件下提供了信息的特征。

另一種思路是Interventional SHAP,它試圖通過模擬對特征進行干預(即將其設置為某個固定值或從其邊緣分布中采樣,使其獨立于其他特征)來估計 SHAP 值,這更接近原始 Shapley 值的博弈論思想,旨在衡量特征的“因果貢獻”。然而,實現真正的干預效果在觀察性數據上具有挑戰性。 關于應該采用模擬干預效果的方法還是基于條件信息的方法,學術界和實踐中存在持續的討論,因為它們對應著不同的解釋目標和含義(例如,因果貢獻 vs. 信息價值)。用戶需要了解其所使用的 SHAP 解釋器在處理特征依賴時所采用的具體策略及其潛在影響。

  • 可靠性與潛在誤導: 近期的一些研究工作對 SHAP 解釋結果的可靠性以及在某些情況下可能產生的誤導性提出了更深層次的關注和質疑。研究表明,即使是精確計算的 Shapley 值,在某些特定情況下也可能表現出一些不符合直覺的行為。例如,在所謂的“I1 問題”中,不相關的特征(即對模型預測沒有真實影響的特征)可能被分配非零的 SHAP 值;在“I3 問題”中,相關的特征有時可能被分配零 SHAP 值;甚至在“I2 問題”中,特征重要性的排序可能與直覺或基于其他方法的排序不一致。這些問題通常與價值函數的定義以及特征“缺失”的建模方式有關。此外,由于精確計算的困難,實踐中廣泛使用的 SHAP 近似計算方法(如 KernelSHAP 中的采樣、DeepSHAP 和 GradientExplainer 中的梯度近似和背景樣本選擇)本身也可能引入額外的誤差。這些近似誤差可能導致計算得到的 SHAP 值與理論上的精確 Shapley 值之間存在差異,或者與特征的真實重要性排序不符,尤其是在近似算法的參數選擇不當(如背景樣本數量不足、采樣策略不合適)或模型不完全滿足其解釋器假設的情況下。
  • 解釋目標的匹配度: 這些觀察引發了更深層次的討論:基于合作博弈論“公平分配”思想的 Shapley 值,是否總是解釋機器學習模型預測行為的最恰當或唯一的基礎?用戶在尋求模型解釋時,其目標可能是多樣的,例如理解模型的因果機制、獲取反事實解釋(即如果某個特征改變會怎樣)、或者理解模型學習到的決策規則等。“公平的貢獻分配”這一目標并不一定完全等同于所有這些用戶期望的解釋類型。
  • 與其他解釋方法的對比: 為了更全面地理解 SHAP 的特性和局限性,將其與其他常見的模型解釋方法(例如 LIME、Permutation Feature Importance)進行對比分析是非常有益的。

SHAP 與 LIME: 兩者都是流行的局部、模型無關的解釋方法。KernelSHAP 在理論上與 LIME 有緊密的聯系。然而,SHAP 基于 Shapley 值,擁有更強的理論保證(如一致性),通常更穩定,且天然支持全局重要性聚合。LIME 理論基礎相對較弱,結果可能不穩定,但通常比 KernelSHAP 快。

SHAP 與 Permutation Feature Importance (PFI): 兩者都評估特征重要性,但層面和定義不同。PFI 主要衡量特征對模型整體性能的影響(全局),通過打亂特征值觀察性能下降。SHAP 衡量對預測值的貢獻(局部+全局)。它們的排序可能不一致,PFI 更關注“移除特征性能損失多少”,SHAP 更關注“特征對預測貢獻多少”。

  • 理論與實踐的鴻溝: SHAP 的核心吸引力之一在于其基于 Shapley 值的優良理論屬性。然而,在實際應用中,各種近似算法的引入可能會在不同程度上削弱這些理論保證。例如,KernelSHAP 對特征獨立性的假設在特征相關時可能引入偏差;DeepSHAP 和 GradientExplainer 的結果可能對背景樣本的選擇敏感。

針對上述的局限性和挑戰,學術界和工業界正在積極探索各種改進方法和新的研究方向。這些努力包括:

  • 改進價值函數定義:例如,提出基于相似性謂詞的新型價值函數(如 sSHAP)來嘗試避免對不相關特征的錯誤歸因。
  • 融入因果推斷:發展如 Causal SHAP 等方法,試圖將因果推斷的思想更明確地融入 SHAP 框架。
  • 提升計算效率:開發更高效的 SHAP 值計算算法,例如利用 GPU 加速的 TreeSHAP (如 GPUTreeShap)。
  • 更穩健地處理特征依賴:持續研究能夠更穩健、更準確地處理特征間依賴關系的方法。
  • 量化解釋的不確定性:研究如何量化 SHAP 值(尤其是近似值)的不確定性或置信區間。
  • 擴展到新的模型和應用場景:將 SHAP 框架適配到如圖神經網絡、Transformer 等新興模型和時間序列預測等復雜場景。

更深入地審視,SHAP 的一些挑戰也反映了理論保證與實踐應用之間的潛在鴻溝,以及用戶解釋目標的多樣性與模糊性。用戶可能希望理解規則、反事實、因果關系等,而 SHAP 主要回答“特征貢獻多少”。這提示我們需要更清晰地定義解釋目標,并開發針對性的方法。

6. 總體視角

回顧 SHAP 自提出以來的發展歷程,其在推動機器學習可解釋性領域進步方面的核心價值與貢獻是顯著且不容忽視的:

  • 統一的理論框架:基于具有理想數學屬性的 Shapley 值,為特征歸因提供了堅實的理論基礎。
  • 連接多種解釋方法:成功地將多種先前存在的模型解釋方法置于一個共同的、可加性特征歸因的框架之下。
  • 實用的工具與可視化:提供了豐富的、易于使用的工具和強大的可視化方法,極大地促進了 XAI 的實踐應用。
  • 增強模型透明度與信任:通過提供局部和全局解釋,顯著提升了復雜機器學習模型的透明度。

然而,正如前文所詳述,SHAP 框架并非完美無缺,它仍然面臨著諸多固有的局限性與待解決的挑戰

  • 計算成本:對于許多模型和大規模數據集,SHAP 值的計算仍然是昂貴的。
  • 特征依賴處理:如何恰當地處理特征之間的依賴關系,仍然是一個復雜且存在爭議的問題。
  • 解釋的可靠性與潛在誤導:即使是理論上完美的 Shapley 值,在特定情況下也可能產生與直覺不符的解釋;近似計算更可能影響可靠性。
  • 理論與實踐的差距:理論保證在實際的近似計算中可能會有所折扣。
  • 解釋目標的匹配度:“公平貢獻分配”目標與用戶多樣化的解釋需求之間可能存在偏差。

為了克服這些局限性并進一步推動可解釋人工智能領域的發展,未來的研究工作可以關注以下幾個方面:

  • 提升算法效率與準確性:持續開發更高效、更準確的 SHAP 值計算方法。
  • 深化特征依賴與因果解釋:更好地建模特征依賴,并將因果推斷融入解釋框架。
  • 量化解釋的不確定性:發展能夠量化解釋結果不確定性的方法。
  • 適配新興模型與任務:針對 Transformer、圖神經網絡等新模型和復雜任務進行優化擴展。
  • 建立更完善的評估體系:建立更全面、客觀的解釋方法評估標準、指標和基準。
  • 結合領域知識與用戶中心設計:將領域知識和用戶需求融入解釋的生成與呈現。

同時,也應鼓勵和支持積極探索超越當前主流歸因方法(如 SHAP)的、基于不同理論基礎(例如信息論、反事實推理、概念激活向量、可證明的解釋等)的新型解釋范式和技術,以滿足對模型行為更深層次、更多樣化的理解需求。

總之, SHAP 作為當前機器學習可解釋性領域最具影響力的框架之一,無疑在提升模型透明度、促進可解釋人工智能的實踐應用方面發揮了至關重要的作用。然而,對其固有局限性和面臨挑戰的清醒認識與深入理解,以及對未來研究方向的持續探索和創新,對于我們構建真正值得信賴、負責任且能夠被有效管理的人工智能系統而言,是不可或缺的關鍵環節。可解釋人工智能領域的發展,需要在肯定現有成就的基礎上,不斷審視和反思當前方法的不足,積極擁抱新的思想和技術,以期獲得更準確、更可靠、更全面,并且最終更符合人類認知習慣和實際應用需求的解釋能力。

本文轉載自??上堵吟??,作者:一路到底的孟子敬


已于2025-6-9 00:13:23修改
收藏
回復
舉報
回復
相關推薦
主站蜘蛛池模板: a免费在线 | 特黄色毛片 | а天堂中文最新一区二区三区 | 精品日韩 | 精产嫩模国品一二三区 | 欧美一级大片免费观看 | 波多野结衣一区二区 | 成人高潮片免费视频欧美 | 午夜激情在线 | 黑人久久久 | 欧美一级精品片在线看 | 日韩免费福利视频 | 日本高清中文字幕 | 亚洲人人| 91精品国产91久久久久游泳池 | 曰韩三级 | 亚洲国产一区视频 | 国产98色在线 | 日韩 | 久久精品中文 | a级片在线观看 | 99视频在线看 | 在线中文字幕视频 | 黄色大片免费观看 | 国产a视频 | 欧美精品久久久久 | 国产欧美在线 | 一区二区三区在线观看视频 | 有码在线 | 99福利在线观看 | 亚洲在线免费观看 | 色偷偷人人澡人人爽人人模 | h视频在线免费观看 | 在线播放中文字幕 | 欧美精品久久久久 | 99re视频在线免费观看 | www日日日| 国产精品国产成人国产三级 | 久久国产精品精品 | 免费在线精品视频 | 精品欧美乱码久久久久久 | 国产jizz女人多喷水99 |