成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

重磅公開!阿里語音識別模型端核心技術,讓你“聽”見未來

新聞 人工智能
本文將全面介紹阿里云語音識別技術中的重要模型端技術,希望和業界同仁交流探討。

 [[255840]]

  阿里妹導讀:語音識別技術作為人工智能技術中的重要組成部分,成為影響人機交互的核心組件之一,從各種智能家用 IoT 設備的語音交互能力,到公共服務、智慧政務等場合的應用,語音識別技術正在影響著人們生活的方方面面。

  本文將全面介紹阿里云語音識別技術中的重要模型端技術,希望和業界同仁交流探討。

  本文作者:

  鄢志杰、薛少飛、張仕良、鄭昊、雷鳴

  聲學模型、語言模型和解碼器可以看作是現代語音識別系統最核心的三個組成部分。雖然最近有一些研究者嘗試構建 End2end 的語音識別系統,但包含聲學模型、語言模型和解碼器的現代語音識別系統依然是當前最主流和使用最廣泛的系統。在這其中,聲學模型主要用來構建輸入語音和輸出聲學單元之間的概率映射關系;語言模型用來描述不同字詞之間的概率搭配關系,使得識別出的句子更像自然文本;解碼器負責結合聲學單元概率數值和語言模型在不同搭配上的打分進行篩選,最終得到最可能的識別結果。

  隨著近幾年深度學習的火熱,語音識別領域也紛紛投入深度學習的大潮之中。將傳統 HMM-GMM 聲學模型替換成 HMM-DNN 聲學模型后,可以獲得超過 20% 的相對提升,在傳統N-Gram 語言模型基礎上疊加 NN-LM 語言模型也可以獲得進一步的提高。

  在這過程中,聲學模型由于更適合采用深度神經網絡模型,從而受到研究者更多的關注。本文主要介紹阿里云語音識別技術中采用的聲學模型技術和語言模型技術,包括 LC-BLSTM 聲學模型、LFR-DFSMN 聲學模型和 NN-LM 語言模型,其中 LC-BLSTM 是對傳統 BLSTM 模型的一種改進,在保持了高準確率的同時,提供了低延時的特性;而 DFSMN 是一種新穎的非遞歸結構的神經網絡卻可以像 RNN 一樣對信號的長時相關進行建模,同時可以獲得更穩定的訓練效果和更好的識別準確。NN-LM 語言模型是近年來在傳統N-Gram 語言模型基礎上獲得的進一步改進。

  Latency-Controlled BLSTM 模型

  DNN(即 fully connected DNN)模型的優點在于通過增加神經網絡的層數和節點數,擴展了網絡對于復雜數據的抽象和建模能力,但同時 DNN 模型也存在一些不足,例如 DNN 中一般采用拼幀來考慮上下文相關信息對于當前語音幀的影響,這并不是反映語音序列之間相關性的最佳方法。自回歸神經網絡(RNN)在一定程度上解決了這個問題,它通過網絡節點的自連接達到利用序列數據間相關性的目的。進一步有研究人員提出一種長短時記憶網絡(LSTM-RNN),它可以有效減輕簡單 RNN 容易出現的梯度爆炸和梯度消散問題,而后研究人員又對 LSTM 進行了擴展,使用雙向長短時記憶網絡(BLSTM-RNN)進行聲學模型建模,以充分考慮上下文信息的影響。

  BLSTM 模型可以有效地提升語音識別的準確率,相比于 DNN 模型,相對性能提升可以達到 15%-20%。但同時 BLSTM 模型也存在兩個非常重要的問題:

  1. 句子級進行更新,模型的收斂速度通常較慢,并且由于存在大量的逐幀計算,無法有效發揮 GPU 等并行計算工具的計算能力,訓練會非常耗時;

  2. 由于需要用到整句遞歸計算每一幀的后驗概率,解碼延遲和實時率無法得到有效保證,很難應用于實際服務。

  對于這兩個問題,學術界首先提出 Context-Sensitive-Chunk BLSTM(CSC-BLSTM)的方法加以解決,而此后又提出了 Latency Controlled BLSTM(LC-BLSTM)這一改進版本,更好、更高效地減輕了這兩個問題。我們在此基礎上采用 LC-BLSTM-DNN 混合結構配合多機多卡、16bit 量化等訓練和優化方法進行聲學模型建模,取得了相比于 DNN 模型約 17-24% 的相對識別錯誤率下降。

  典型的 LSTM 節點結構由 3 個 gate 組成:input gate、forget gate、output gate 和一個 cell 組成,輸入、輸出節點以及 cell 同各個門之間都存在連接;inputgate、forget gate 同 cell 之間也存在連接,cell 內部還有自連接。這樣通過控制不同門的狀態,可以實現更好的長短時信息保存和誤差傳播。

  LSTM 可以像 DNN 一樣逐層堆積成為 DeepLSTM,為了更好地利用上下文信息,還可以使用 BLSTM 逐層堆積構造 Deep BLSTM,其結構如下圖所示,網絡中沿時間軸存在正向和反向兩個信息傳遞過程,每一個時間幀的計算都依賴于前面所有時間幀和后面所有時間幀的計算結果,對于語音信號這種時序序列,該模型充分考慮了上下文對于當前語音幀的影響,能夠極大提高音素狀態的分類準確率。

  然而由于標準的 BLSTM 是對整句語音數據進行建模,訓練和解碼過程存在收斂慢、延遲高、實時率低等問題,針對這些弊端我們采用了 Latency Controlled BLSTM 進行解決,與標準的 BLSTM 使用整句語音進行訓練和解碼不同,Latency Control BLSTM 使用類似 truncated BPTT 的更新方式,并在 cell 中間狀態處理和數據使用上有著自己的特點,如下圖所示,訓練時每次使用一小段數據進行更新,數據由中心 chunk 和右向附加 chunk 構成,其中右向附加 chunk 只用于 cell 中間狀態的計算,誤差只在中心 chunk 上進行傳播。

  時間軸上正向移動的網絡,前一個數據段在中心 chunk 結束時的 cell 中間狀態被用于下一個數據段的初始狀態,時間軸上反向移動的網絡,每一個數據段開始時都將 cell 中間狀態置為0。該方法可以很大程度上加快網絡的收斂速度,并有助于得到更好的性能。解碼階段的數據處理與訓練時基本相同,不同之處在于中心 chunk 和右向附加 chunk 的維度可以根據需求進行調節,并不必須與訓練采用相同配置。

  LFR-DFSMN 模型

  FSMN 是近期被提出的一種網絡結構,通過在前饋全連接神經網絡(Feedforward Fully-connectedNeural Networks,FNN)的隱層添加一些可學習的記憶模塊,從而可以有效地對信號的長時相關性進行建模。

  FSMN 相比于 LCBLSTM 不僅可以更加方便的控制時延,而且往往也能獲得更好的性能,需要的計算資源也更少。但是標準的 FSMN 很難訓練非常深層的結構,由于梯度消失問題導致訓練效果不好。而深層結構的模型目前在很多領域被證明具有更強的建模能力。因而針對此我們提出了一種改進的 FSMN 模型,稱之為深層的 FSMN(Deep FSMN, DFSMN)。

  進一步的我們結合低幀率(Low Frame Rate,LFR)技術構建了一種高效的實時語音識別聲學模型,相比于去年我們上線的 LFR-LCBLSTM 聲學模型可以獲得超過 20% 的相對性能提升,同時可以獲得2-3 倍的訓練以及解碼的加速,可以顯著的減少我們的系統實際應用時所需要的計算資源。

  最早提出的 FSMN 的模型結構如上圖(a)所示,其本質上是一個前饋全連接神經網絡,通過在網絡的某些隱層旁添加一些記憶模塊(memory block)來對當前時刻周邊的上下文信息進行建模,從而使得模型可以對時序信號的長時相關性進行建模。記憶模塊采用如上圖(b)所示的抽頭延遲結構將當前時刻以及之前 N 個時刻的隱層輸出通過一組系數編碼得到一個固定的表達。

  FSMN 的提出是受到數字信號處理中濾波器設計理論的啟發:任何無限響應沖擊(Infinite Impulse Response, IIR)濾波器可以采用高階的有限沖擊響應(FiniteImpulseResponse, FIR)濾波器進行近似。

  從濾波器的角度出發,如上圖(c)所示的 RNN 模型的循環層就可以看作如上圖(d)的一階 IIR 濾波器。而 FSMN 采用的采用如上圖(b)所示的記憶模塊可以看作是一個高階的 FIR 濾波器。從而 FSMN 也可以像 RNN 一樣有效的對信號的長時相關性進行建模,同時由于 FIR 濾波器相比于 IIR 濾波器更加穩定,因而 FSMN 相比于 RNN 訓練上會更加簡單和穩定。

  根據記憶模塊編碼系數的選擇,可以分為:

  • 標量 FSMN(sFSMN)

  • 矢量 FSMN(vFSMN)

  sFSMN 和 vFSMN 顧名思義就是分別使用標量和矢量作為記憶模塊的編碼系數。

  以上的 FSMN 只考慮了歷史信息對當前時刻的影響,我們可以稱之為單向的 FSMN。當我們同時考慮歷史信息以及未來信息對當前時刻的影響時,我們可以將單向的 FSMN 進行擴展得到雙向的 FSMN。

  FSMN 相比于 FNN,需要將記憶模塊的輸出作為下一個隱層的額外輸入,這樣就會引入額外的模型參數。隱層包含的節點越多,則引入的參數越多。研究結合矩陣低秩分解(Low-rank matrix factorization)的思路,提出了一種改進的 FSMN 結構,稱之為簡潔的 FSMN(Compact FSMN,cFSMN)。下圖是一個第l個隱層包含記憶模塊的 cFSMN 的結構框圖。

  對于 cFSMN,通過在網絡的隱層后添加一個低維度的線性投影層,并且將記憶模塊添加在這些線性投影層上。進一步的,cFSMN 對記憶模塊的編碼公式進行了一些改變,通過將當前時刻的輸出顯式的添加到記憶模塊的表達中,從而只需要將記憶模塊的表達作為下一層的輸入。這樣可以有效的減少模型的參數量,加快網絡的訓練。

  上圖是我們進一步提出的 Deep-FSMN(DFSMN)的網絡結構框圖,其中左邊第一個方框代表輸入層,右邊最后一個方框代表輸出層。我們通過在 cFSMN 的記憶模塊(紅色框框表示)之間添加跳轉連接(skip connection),從而使得低層記憶模塊的輸出會被直接累加到高層記憶模塊里。這樣在訓練過程中,高層記憶模塊的梯度會直接賦值給低層的記憶模塊,從而可以克服由于網絡的深度造成的梯度消失問題,使得可以穩定的訓練深層的網絡。

  相比于之前的 cFSMN,DFSMN 優勢在于,通過跳轉連接可以訓練很深的網絡。對于原來的 cFSMN,由于每個隱層已經通過矩陣的低秩分解拆分成了兩層的結構,這樣對于一個包含 4 層 cFSMN 層以及兩個 DNN 層的網絡,總共包含的層數將達到 13 層,從而采用更多的 cFSMN 層,會使得層數更多而使得訓練出現梯度消失問題,導致訓練的不穩定性。

  我們提出的 DFSMN 通過跳轉連接避免了深層網絡的梯度消失問題,使得訓練深層的網絡變得穩定。需要說明的是,這里的跳轉連接不僅可以加到相鄰層之間,也可以加到不相鄰層之間。跳轉連接本身可以是線性變換,也可以是非線性變換。具體的實驗我們可以實現訓練包含數十層的 DFSMN 網絡,并且相比于 cFSMN 可以獲得顯著的性能提升。

  從最初的 FSMN 到 cFSMN 不僅可以有效的減少模型的參數,而且可以獲得更好的性能。進一步的在 cFSMN 的基礎上,我們提出的 DFSMN,可以更加顯著的提升模型的性能。如下表是在一個 2000 小時的英文任務上基于 BLSTM,cFSMN,DFSMN 的聲學模型性能對比。

  Model

  BLSTM

  cFSMN

  DFSMN

  WER%

  10. 9

  10. 8

  9. 4

  從上表中可以看到,在 2000 小時這樣的任務上,DFSMN 模型可以獲得比 BLSTM 聲學模型相對 14% 的錯誤率降低,顯著提高了聲學模型的性能。

  傳統的聲學模型,輸入的是每幀語音信號提取的聲學特征,每幀語音的時長通常為 10ms,對于每個輸入的語音幀信號會有相對應的一個輸出目標。最近有研究提出一種低幀率(Low Frame Rate,LFR)建模方案:通過將相鄰時刻的語音幀進行綁定作為輸入,去預測這些語音幀的目標輸出得到的一個平均輸出目標。具體實驗中可以實現三幀(或更多幀)拼接而不損失模型的性能。

  從而可以將輸入和輸出減少到原來的三分之一甚至更多,可以極大的提升語音識別系統服務時聲學得分的計算以及解碼的效率。我們結合 LFR 和以上提出的 DFSMN,構建了基于 LFR-DFSMN 的語音識別聲學模型,經過多組實驗我們最終確定了采用一個包含 10 層 cFSMN 層 +2 層 DNN 的 DFSMN 作為聲學模型,輸入輸出則采用 LFR,將幀率降低到原來的三分之一。識別結果和去年我們上線的最好的 LCBLSTM 基線比較如下表所示。

  通過結合 LFR 技術,我們可以獲得三倍的識別加速。從上表中可以看到,在實際工業規模應用上,LFR-DFSMN 模型比 LFR-LCBLSTM 模型可以獲得 20% 的錯誤率下降,展示了對大規模數據更好的建模特性。

  NN-LM 語言模型

  語言模型,顧名思義,對語言進行建模的模型。語言表達可以看作一串字符序列,不同的字符序列組合代表不同的含義,字符的單位可以是字或者詞。語言模型的任務,可以看作是給定字符序列,如何估計該序列的概率,或者說,如何估計該序列的合理性。

  P (上海的工人師傅有力量)>P(上海的工人食腐有力量)

  拿這句話做個例子。比如到底應該是“工人師傅有力量”,還是“工人食腐有力量”,哪句話更“合適”。我們容易判斷左邊這句的概率大一點。于是我們希望通過語言模型的建模,可以給出符合人類預期的概率分配。就像這句,“工人師傅”的概率,大于“工人食腐”的概率。

  基于統計詞頻的傳統N元文法模型,通過馬爾可夫假設簡化了模型結構和計算,通過計數的方式計算,通過查找的方式使用。擁有估計簡單、性能穩定、計算快捷的優勢,有超過三十年的使用歷史。然而其馬爾科夫假設強制截斷建模長度,使得模型無法對較長的歷史建模;基于詞頻的估計方式也使得模型不夠平滑,對于低詞頻詞匯估計不足。隨著神經網絡(Neural Networks,NNs)的第三次崛起,人們開始嘗試通過 NN 來進行語言模型建模。

  一個典型的建模結構是遞歸神經網絡(recurrentneural networks,RNNs),其遞歸的結構理論上可以對無窮長序列進行建模,彌補了N元文法對于序列長度建模的不足;同時其各層間的全向連接也保證了建模的平滑。此外為了提升模型的性能,研究者們還嘗試了通過長短時記憶(Long Short-Term Memory,LSTM)結構來提升基本 RNN 本身建模能力的不足,進一步提升模型性能。

  NN 用于大規模語言建模的系統中,需要面對一些問題,例如大詞表帶來的存儲和計算增加。實際線上系統的詞表往往比較大,而隨著詞表的增加,基本 RNN 結構的存儲和計算量都會幾何級數爆炸式增長。

  為此,研究者們進行了一些嘗試,壓縮詞典尺寸成了一個最直接的解決方案,一個經典的方法是詞表聚類。該方法可以大幅壓縮詞表尺寸,但往往也會帶來一定的性能衰減。更直接的一個想法是直接過濾掉低頻詞匯,這樣依然會帶來一定的性能衰減,據此有一個改進策略,我們發現真正制約速度性能的主要是輸出層節點,輸入層節點大,借助 projection 層可以很好解決,于是輸入層采用大辭典,而僅對輸出層詞表進行抑制,這樣不僅盡可能地降低了損失,同時過濾掉過低的詞頻,也有利于模型節點的充分訓練,性能往往還會略有提升。

  詞表的壓縮可以提升建模性能,降低計算量和存儲量,但僅限于一定的量級,不可以無限制壓縮,如何繼續降低計算量依然是一個問題。一些方法被提了出來。例如 LightRNN,通過類似聚類的方式,利用 embedding 的思想,把詞表映射到一個實值矩陣上,實際輸出只需要矩陣的行加矩陣的列,計算量大概也能開個方。和節點數多一起造成計算量大的一個原因就是 softmax 輸出,需要計算所有的節點求個和,然后得到分母。若是這個分母能保持一個常數,實際計算的時候就只算需要的節點,在測試環節就快的多了。

  于是就有了正則項相關的方法,Variance Regularization,如果訓練速度可以接受的話,這種方法在基本不損失模型正確性的情況下可以大幅提升前向計算速度;如果訓練的時候也想提速,還可以考慮基于采樣,sampling 的方法,比如 NCE、Importance Sampling、Black Sampling 等,本質上就是說,在訓練的時候不計算全部節點,只計算正樣本(也就是標簽為 1 的節點),以及部分通過某種分布采樣的到的負樣本,避免高輸出造成的計算緩慢。速度上提升還是很明顯的。

  從阿里云獲得開發者模型定制能力

  想象一個做智能電話客服或是智能會議系統的開發者,需要為他的系統接入語音識別(將語音轉寫為文字)的能力。擺在他面前的會是這樣一個尷尬的局面:

  一個選擇是自己從零開始學做語音識別,這可能要花費大量的時間和金錢。畢竟人工智能這種事情,各大互聯網巨頭投入大量的人力、物力、財力,也要花較長的時間才能積累下技術;

  第二個選擇是用上述巨頭們在互聯網上提供的開箱即用的、one size fits all 的語音識別接口,時間是省下了,但語音轉文字的準確率嘛,只能碰碰運氣,畢竟巨頭們也很忙,沒有精力為你關注的場景進行優化。

  那么問題來了:有沒有一種手段能夠以最小的投入獲得業務上最佳的語音識別效果呢?答案是肯定的。

  阿里云依托達摩院業界領先的語音交互智能,打破傳統語音技術提供商的供給模式,在云計算時代讓普通開發者也能夠通過阿里云提供的語音識別云端自學習技術,獲得定制優化自己所關心的業務場景的成套手段。阿里云讓廣大的開發者站在巨頭的肩膀上,通過自主可控的自學習,在短時間內實現對語音識別系統應用從入門到精通,并在開發者關心的場景下輕松擁有業界頂尖的語音識別準確率。這就是云計算時代的語音識別技術全新的供給模式。

  與其它人工智能技術一樣,語音識別技術的關鍵在于算法、算力和數據三個方面。阿里云依托達摩院語音交互智能,近年來持續在世界前沿進行“算法”演進,近期還將最新的研究成果 DFSMN 聲學模型開源,供全世界的研究者復現目前最佳的結果并進行持續提升。

  在“算力”方面自不用說,這本身就是云計算的天然強項。基于阿里云 ODPS-PAI 平臺,我們構建了專為語音識別應用優化的 CPU/GPU/FPGA/NPU 訓練和服務混布平臺,每天服務于阿里云上巨量的語音識別請求。在“數據”方面,我們提供通過海量數據訓練的、開箱即用的場景模型,包括電商、客服、政務、手機輸入等等。

  同時應該看到,在具體的落地場景下往往會有一些非常特殊、領域相關的“說法”需要被識別,很多時候類似于“碎屑巖巖性地層”、“海相碳酸鹽巖”這種特定說法對于通用場景模型的識別率提出了挑戰。要獲得開發者關心的具體場景下最佳的準確率,開箱即用的模型一般還需要一定的定制優化工作才可以達到。傳統上,這樣的定制是通過語音技術服務提供商來完成的,在成本、周期、可控性等方面都存在明顯不足。

  阿里云提供的語音定制“自學習”平臺服務,可以提供多種手段,在很短的時間內、以較低的成本,讓開發者完全掌控模型定制優化及上線的工作。阿里云創新工具平臺及服務技術,依托強大的基礎設施,使得在云計算的大背景下進行大規模定制化語音服務成為可能。而開發者完全無需關心后臺的技術和服務,只需要使用阿里云提供的簡單易用的“自學習”工具,利用場景知識和數據,就可以獲得該特定場景下最優的效果,并按需要持續迭代提升。

  阿里云的智能語音自學習平臺具備以下優勢:

  • 易:智能語音自學習平臺顛覆性地提供一鍵式自助語音優化方案,極大地降低進行語音智能優化所需要的門檻,讓不懂技術的業務人員也可以來顯著提高自身業務識別準確率。

  • 快:自學習平臺能夠在數分鐘之內完成業務專屬定制模型的優化測試上線,更能支持業務相關熱詞的實時優化,一改傳統定制優化長達數周甚至數月的漫長交付弊端。

  • 準:自學習平臺優化效果在很多內外部合作伙伴和項目上得到了充分驗證,很多項目最終通過自學習平臺不光解決了效果可用性問題,還在項目中超過了競爭對手使用傳統優化方式所取得的優化效果。

  舉例來說,開發者可以使用下述多種“自學習”手段來定制自己關心領域的模型:

  a)業務熱詞定制

  在許多特定場所,要求快速對特定詞的識別能力進行加強(注:包括兩種模式,模式一為其他詞易被識別成特定詞;模式二為特定詞易被識別成其他詞),采用實時熱詞加載技術,可以在實時場景下,通過設置不同的檔位,能夠實現熱詞識別能力的加強。

  b)類熱詞定制

  很多時候,相同的發音相同的屬性在不同上下文上會需要不同的識別效果。聯系人和地名就是典型的案例,對于不同人的好友,“張陽”和“章揚”我們就必須能準確地識別出相應的名字。同樣,相隔千里的安溪跟安西如果識別錯誤會給導航帶來大麻煩。智能語音自學習平臺相信“每個人都值得被尊重”,提供聯系人類和地名類的定制能力,“讓天下沒有難識的路”。

  c)業務專屬模型定制

  用戶通過輸入對應領域的相關文本,如行業或公司的基本介紹、客服聊天記錄、領域常用詞匯和專有名詞等,即可快速自行生成該行業下的定制模型,整個定制過程無需用戶人工干預。

  通過這些手段,阿里云使得開發者不必關心語音技術的算法和工程服務細節,專注于他們擅長的垂直領域的知識和數據收集,實現全新的語音技術云端供給模式,造福于廣大的開發者及其業務結果。

責任編輯:張燕妮 來源: 阿里技術
相關推薦

2017-03-19 16:05:01

2018-01-23 12:03:57

阿里雙11超級工程

2017-06-16 15:16:32

2017-12-21 14:48:43

數據安全數據泄漏檢測技術

2017-06-26 10:40:59

2024-06-13 09:21:47

2020-12-10 11:00:37

JavaJVM命令

2013-08-09 17:14:36

桌面虛擬化

2022-05-07 14:31:46

物聯網

2019-04-30 14:19:24

Kafka大數據分布式流平臺

2020-12-24 13:52:36

人工智能自然語言處理NLP

2018-03-15 09:16:43

人臉識別屏幕指紋指紋識別

2018-01-16 10:49:52

區塊鏈核心技術

2017-03-08 10:06:11

Java技術點注解

2009-06-26 16:01:39

EJB組織開發EJB容器EJB

2023-06-14 08:49:22

PodKubernetes

2016-11-15 14:33:05

Flink大數據

2009-06-15 17:54:50

Java核心技術

2022-05-09 08:21:29

Spring微服務Sentinel

2011-04-28 15:27:20

激光打印LED打印
點贊
收藏

51CTO技術棧公眾號

主站蜘蛛池模板: 精品国产一区二区三区久久久蜜月 | 欧美精品网站 | 亚洲精品色 | 男人天堂国产 | 国产伦一区二区三区视频 | 亚洲成人在线免费 | 精品九九 | av免费成人 | 成年人在线观看视频 | 亚洲成人av| 免费视频一区二区 | 欧美一区二区三区 | 国产1区在线 | 精品国产一区久久 | 国产真实乱对白精彩久久小说 | 亚洲成在线观看 | 99久久99热这里只有精品 | 中文字幕在线不卡 | 免费艹逼视频 | 久久精品亚洲国产奇米99 | 国产精品性做久久久久久 | 久久精品一级 | 欧美亚洲国产日韩 | 欧美日韩国产传媒 | 精品一区二区在线观看 | 亚洲国产偷 | 欧美天堂在线观看 | 久久久九九九九 | 成人精品鲁一区一区二区 | 国产高清自拍视频在线观看 | 欧美日韩一区二区三区四区五区 | av在线天天| 国产精品一二三区在线观看 | 亚洲一区久久 | 91精品国产色综合久久不卡蜜臀 | 欧美一级二级视频 | 欧美高清性xxxxhd | 91精品久久久久久综合五月天 | 午夜影晥| 日本成人一区二区 | 欧美日韩91 |