成人免费xxxxx在线视频软件_久久精品久久久_亚洲国产精品久久久_天天色天天色_亚洲人成一区_欧美一级欧美三级在线观看

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路

發(fā)布于 2025-6-20 06:37
瀏覽
0收藏

電子科技大學(xué)研究人員的論文《InPK: Infusing Prior Knowledge into Prompt for Vision-Language Models》提出了一種新穎的方法,即通過將先驗知識融入到視覺語言模型(VLM)的提示中,以提升模型在零樣本和少樣本視覺識別任務(wù)中的性能。本文將結(jié)合論文詳細(xì)介紹 InPK 的技術(shù)原理、實現(xiàn)方法、實驗結(jié)果及其在視覺語言模型領(lǐng)域中的意義。

背景

近年來,在大型圖像文本數(shù)據(jù)集上預(yù)訓(xùn)練的視覺語言模型(VLM),例如 CLIP,已經(jīng)在各種下游任務(wù)中展現(xiàn)出了強大的泛化能力。CLIP 等模型通過學(xué)習(xí)圖像和文本之間的關(guān)聯(lián),能夠理解圖像的內(nèi)容并將其與相應(yīng)的文本描述聯(lián)系起來。這種能力使得 VLM 在各種視覺識別任務(wù)中表現(xiàn)出色,尤其是在那些缺乏大量標(biāo)注數(shù)據(jù)的場景中。

為了使這些模型能夠更好地適應(yīng)特定的任務(wù)或數(shù)據(jù)集,特別是在零樣本或少樣本的場景下,研究人員提出了多種解決方案。零樣本學(xué)習(xí)指的是模型在沒有見過任何目標(biāo)類別樣本的情況下識別這些類別的能力;而少樣本學(xué)習(xí)則是指模型僅見過目標(biāo)類別的少量樣本,需要從中快速學(xué)習(xí)并泛化到更多的樣本。這兩種場景都對模型的泛化能力提出了更高的要求。

在眾多的解決方案中,提示調(diào)整(prompt tuning)是一種通過優(yōu)化文本提示來引導(dǎo)視覺語言模型執(zhí)行特定任務(wù)的技術(shù),作為一種有效的策略脫穎而出。提示調(diào)整的核心思想是通過調(diào)整文本提示來引導(dǎo) VLM,使其更好地執(zhí)行特定的任務(wù)。VLM 通常使用文本提示來指導(dǎo)其行為,例如,在圖像分類任務(wù)中,模型可能會收到“這是一張[類別]的圖片”這樣的提示。通過調(diào)整提示中的“[類別]”部分,我們可以引導(dǎo)模型識別不同的對象。

提示調(diào)整的優(yōu)勢在于其簡單性和高效性。與傳統(tǒng)的微調(diào)方法相比,提示調(diào)整只需要調(diào)整少量的文本提示,而不需要修改模型的其他部分。這大大降低了計算成本,并提高了模型的泛化能力。

然而,現(xiàn)有的提示調(diào)整方法在處理未見過的類別時,往往存在過擬合于已見類別的問題,從而導(dǎo)致泛化能力下降。這是因為,這些方法通常依賴于手工設(shè)計的提示模板,這些模板可能包含了過多關(guān)于已見類別的信息,而缺乏對未見類別的泛化能力。此外,一些方法嘗試引入先驗知識來緩解這個問題,希望通過將更多的信息融入到提示中來提高模型的性能。

先驗知識指的是模型在訓(xùn)練之前已經(jīng)具備的關(guān)于世界的知識。例如,關(guān)于“貓”的先驗知識可能包括“貓有四條腿”、“貓有胡須”等等。將這些先驗知識融入到提示中,可以幫助模型更好地理解圖像的內(nèi)容,并提高其識別能力。

然而,由于可學(xué)習(xí)的標(biāo)記 (learnable tokens) 是指在提示調(diào)整過程中,模型可以學(xué)習(xí)和優(yōu)化的向量表示,用于更好地適應(yīng)特定任務(wù)。是隨機初始化的,并且與先驗知識缺乏聯(lián)系,模型仍然難以提取出具有區(qū)分性和泛化性的特征??蓪W(xué)習(xí)的標(biāo)記是提示調(diào)整方法中用于調(diào)整提示的關(guān)鍵部分。這些標(biāo)記通常是隨機初始化的向量,模型通過訓(xùn)練來學(xué)習(xí)這些向量的最佳值。但是,由于這些標(biāo)記是隨機初始化的,它們可能無法有效地捕捉到先驗知識中的關(guān)鍵信息,從而導(dǎo)致模型在處理未見過的類別時表現(xiàn)不佳。

為了解決上述問題,本文介紹的 InPK 模型提出了一種新的框架。該框架在初始化階段將類別特定的先驗知識注入到可學(xué)習(xí)的標(biāo)記中,從而使模型能夠明確地關(guān)注類別相關(guān)的信息。通過在初始化階段引入先驗知識,InPK 模型為可學(xué)習(xí)的標(biāo)記提供了一個更好的起點,使它們能夠更快地學(xué)習(xí)到有用的信息。

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路-AI.x社區(qū)

此外,為了緩解類別信息在多層編碼器中減弱的問題,InPK 模型在多個特征層級上持續(xù)強化可學(xué)習(xí)標(biāo)記與先驗知識之間的交互。通過在多個層級上進行交互,模型能夠逐步地提煉和整合先驗知識,從而更好地捕捉到細(xì)粒度的差異和通用的視覺概念。

這種方法使得模型能夠更有效地關(guān)注類別相關(guān)的信息,即使對于未見過的類別,模型也能夠捕捉到它們共同的表示,并在已有的語義結(jié)構(gòu)中推斷出它們合適的位置。更重要的是,InPK 模型引入了一個可學(xué)習(xí)的文本到視覺的投影層,以更好地對齊視覺和文本語義,進一步提升了模型的性能。

大量的實驗結(jié)果表明,InPK 模型在多個圖像分類數(shù)據(jù)集上均取得了顯著優(yōu)于現(xiàn)有方法的性能,展示了其強大的泛化能力和魯棒性。

InPK 方法詳解

1. 整體框架

InPK 的核心思想是,在提示調(diào)整過程中,通過融入先驗知識來改善 VLM 的性能。其整體框架如圖 2 所示。該方法主要包括以下幾個關(guān)鍵組成部分:

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路-AI.x社區(qū)

  • 先驗知識生成:使用大型語言模型(LLM)生成包含類別名稱和類別特定屬性詞的先驗知識。
  • 先驗知識注入的文本編碼器(PKi):將先驗知識融入到可學(xué)習(xí)的標(biāo)記中,并在多個特征層級上強化二者之間的交互。
  • 文本到視覺的投影層:引入一個可學(xué)習(xí)的投影層,以更好地對齊視覺和文本語義。
  • 訓(xùn)練目標(biāo):設(shè)計一個結(jié)合交叉熵?fù)p失和正則化約束的訓(xùn)練目標(biāo),以優(yōu)化模型性能。

2. 先驗知識生成

高質(zhì)量的先驗知識對于提升 VLM 的識別能力至關(guān)重要。InPK 方法利用 LLM 的豐富世界知識,通過預(yù)定義的指令模板生成全面的類別描述。具體來說,對于每個類別,生成的先驗知識包括類別名稱和多個描述該類別特征的屬性詞。

LLM 是一種經(jīng)過大規(guī)模文本數(shù)據(jù)訓(xùn)練的語言模型,它具備豐富的世界知識和強大的語言生成能力。InPK 方法利用 LLM 來生成先驗知識,可以有效地獲取關(guān)于類別的準(zhǔn)確和全面的描述。

例如,對于“貓”這個類別,生成的屬性詞可能包括“有胡須”、“長尾巴”、“靈活”等。這些屬性詞提供了關(guān)于貓的更細(xì)粒度的信息,有助于模型更好地區(qū)分貓和其他動物。與僅僅使用類別名稱“貓”相比,這些屬性詞能夠提供更豐富的上下文信息,幫助模型更好地理解“貓”的概念。

先驗知識的生成過程可以形式化地描述為:給定一個類別名稱 c,LLM 被用來生成一個包含 n 個屬性詞的集合 A = {a_1, a_2, ..., a_n},其中每個屬性詞 a_i 描述了類別 c 的一個特征。最終,類別 c 的先驗知識表示為包含類別名稱和屬性詞的組合,例如,“貓,有胡須,長尾巴,靈活”。

通過使用 LLM 生成先驗知識,InPK 方法可以獲得以下優(yōu)勢:

  • 準(zhǔn)確性:LLM 具備強大的語言理解能力,可以生成準(zhǔn)確描述類別特征的屬性詞。
  • 全面性:LLM 包含豐富的世界知識,可以生成涵蓋類別多個方面的屬性詞,提供全面的類別描述。
  • 多樣性:LLM 可以生成多種不同的屬性詞,避免模型過分依賴于特定的屬性,提高模型的泛化能力。

3. 先驗知識注入的文本編碼器 (PKi)

InPK 方法沒有簡單地將可學(xué)習(xí)的標(biāo)記與先驗知識拼接起來,而是設(shè)計了一個先驗知識注入的文本編碼器(PKi)。在 PKi 中,先驗知識以更緊密的方式融入到可學(xué)習(xí)的標(biāo)記中。

PKi 的核心是“屬性感知注意力機制”(attribute-aware attention mechanism)。在該機制中,可學(xué)習(xí)的標(biāo)記作為查詢(Query),類別特定的先驗知識嵌入作為鍵(Key)和值(Value),從而生成融合了先驗知識的標(biāo)記嵌入。

傳統(tǒng)的自注意力機制允許模型在處理序列數(shù)據(jù)時,動態(tài)地關(guān)注序列中不同位置的信息。例如,在句子“貓坐在墊子上”中,自注意力機制可以幫助模型識別出“貓”和“坐”之間的關(guān)系,以及“坐”和“墊子”之間的關(guān)系。

然而,在 InPK 方法中,屬性感知注意力機制的目標(biāo)是將先驗知識融入到可學(xué)習(xí)的標(biāo)記中,使其能夠更好地表示類別相關(guān)的信息。具體來說,對于每個可學(xué)習(xí)的標(biāo)記,屬性感知注意力機制會計算它與每個屬性詞之間的相關(guān)性,并根據(jù)這些相關(guān)性來加權(quán)屬性詞的信息,最終得到融合了先驗知識的標(biāo)記嵌入。

屬性感知注意力機制的計算過程可以描述如下:

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路-AI.x社區(qū)

通過這種方式,每個可學(xué)習(xí)的標(biāo)記都能夠根據(jù)其與不同屬性詞之間的相關(guān)性,自適應(yīng)地獲取先驗知識中的相關(guān)信息,從而生成更具區(qū)分性的表示。

為了防止類別信息在多層編碼器中稀釋,PKi 在多個 Transformer 層中都引入了屬性感知注意力機制。Transformer 模型通常由多個層組成,每一層都會對輸入序列進行一次變換。如果沒有特殊的機制,輸入序列中的信息可能會在多層的處理過程中逐漸丟失,這就是信息稀釋問題。

在 InPK 方法中,通過在多個 Transformer 層中引入屬性感知注意力機制,可學(xué)習(xí)的標(biāo)記可以在每一層都與先驗知識進行交互,從而不斷地強化它們之間的聯(lián)系。這種多層次的交互方式使得模型能夠在不同的抽象層級上逐步地建模類別信息,更好地捕捉到細(xì)粒度的差異和通用的視覺概念。

4. 文本到視覺的投影層

由于文本分支引入了額外的先驗知識,這可能會導(dǎo)致視覺和文本語義之間的不對齊。為了解決這個問題,InPK 方法引入了一個可學(xué)習(xí)的文本到視覺的投影層。

在傳統(tǒng)的 VLM 中,圖像和文本通常被編碼成不同維度的特征向量。例如,CLIP 模型使用兩個獨立的編碼器,一個處理圖像,一個處理文本,最終得到兩個不同維度的特征向量。為了比較圖像和文本之間的相似度,需要將它們映射到同一個共享的嵌入空間中。

然而,在 InPK 方法中,由于文本分支引入了額外的先驗知識,這使得文本特征的維度和語義空間發(fā)生了變化,從而導(dǎo)致與視覺特征之間的不對齊。為了解決這個問題,InPK 方法引入了一個可學(xué)習(xí)的投影層。

投影層的作用是將文本分支中的可學(xué)習(xí)標(biāo)記轉(zhuǎn)換為視覺分支中的可學(xué)習(xí)標(biāo)記,從而動態(tài)地調(diào)整文本和視覺分支,確保二者之間的一致性。這個投影層可以是一個簡單的線性變換,也可以是一個更復(fù)雜的非線性變換,例如多層感知機(MLP)。

通過訓(xùn)練,投影層可以學(xué)習(xí)到如何最好地將文本特征轉(zhuǎn)換為視覺特征,從而實現(xiàn)跨模態(tài)的對齊。這種動態(tài)調(diào)整機制使得 InPK 模型能夠更好地處理文本和視覺模態(tài)之間的差異,提高模型的性能。

5. 訓(xùn)練目標(biāo)

InPK 方法的訓(xùn)練目標(biāo)包括兩部分:

  • 交叉熵?fù)p失:用于衡量模型的預(yù)測結(jié)果與真實標(biāo)簽之間的差異。
  • 正則化約束:為了防止模型過擬合于屬性詞,并保留通用的知識,InPK 方法引入了一個正則化約束,它通過最小化文本特征與其在預(yù)訓(xùn)練 CLIP 模型中的對應(yīng)特征之間的 L1 損失來實現(xiàn)。

交叉熵?fù)p失是一種常用的分類損失函數(shù),它衡量的是模型預(yù)測的概率分布與真實標(biāo)簽之間的差異。在 InPK 方法中,交叉熵?fù)p失被用來訓(xùn)練模型,使其能夠準(zhǔn)確地預(yù)測圖像的類別。

然而,僅僅使用交叉熵?fù)p失可能會導(dǎo)致模型過擬合于屬性詞,而忽略了更通用的知識。例如,如果模型在訓(xùn)練數(shù)據(jù)中看到的大多數(shù)貓都有“有胡須”這個屬性,模型可能會錯誤地認(rèn)為“有胡須”是貓的必要屬性,而忽略了其他可能沒有胡須的貓。

為了防止模型過擬合于屬性詞,并保留通用的知識,InPK 方法引入了一個正則化約束。正則化約束通過對模型的參數(shù)或輸出進行約束,來防止模型學(xué)習(xí)到過于 специфичные 的特征,從而提高模型的泛化能力。

在 InPK 方法中,正則化約束的具體形式為 L1 損失,它被應(yīng)用于文本特征和預(yù)訓(xùn)練 CLIP 模型中的對應(yīng)特征之間。CLIP 模型通過在大規(guī)模圖像文本數(shù)據(jù)上進行預(yù)訓(xùn)練,已經(jīng)學(xué)習(xí)到了豐富的通用知識。通過將文本特征約束在 CLIP 模型的特征附近,InPK 模型可以保留這些通用的知識,同時學(xué)習(xí)到類別特定的信息。

L1 損失的計算公式如下:

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路-AI.x社區(qū)

通過結(jié)合交叉熵?fù)p失和正則化約束,InPK 方法能夠有效地訓(xùn)練模型,使其既能夠準(zhǔn)確地識別已見類別,又能夠很好地泛化到未見類別。

實驗結(jié)果

為了驗證 InPK 方法的有效性,作者在 11 個圖像分類數(shù)據(jù)集上進行了大量的實驗,涵蓋了多種不同的任務(wù)。實驗結(jié)果表明,InPK 在零樣本和少樣本的圖像分類任務(wù)中均取得了顯著優(yōu)于現(xiàn)有方法的性能。

InPK:將先驗知識注入視覺語言模型提示的技術(shù)思路-AI.x社區(qū)

1. 基類到新類的泛化

在該實驗設(shè)置中,模型在基類(seen classes)的少量樣本上進行訓(xùn)練,然后在基類和新類(unseen classes)上評估其性能?;愔傅氖悄P驮谟?xùn)練過程中已經(jīng)見過的類別,而新類指的是模型在訓(xùn)練過程中沒有見過的類別。這種實驗設(shè)置旨在評估模型將從已見類別中學(xué)到的知識泛化到未見類別的能力。

InPK 方法在 11 個數(shù)據(jù)集上的平均結(jié)果顯示,其在新類上的準(zhǔn)確率比現(xiàn)有最優(yōu)方法提高了 3.43%,在基類上的準(zhǔn)確率提高了 1.04%。這個結(jié)果表明,InPK 方法不僅能夠很好地識別已見類別,還能夠有效地泛化到未見類別。

為了綜合衡量模型在已見類別和未見類別上的性能,作者使用了調(diào)和平均數(shù)(HM)指標(biāo)。調(diào)和平均數(shù)是一種綜合考慮模型在不同類別上性能的指標(biāo),它能夠更好地反映模型在已見類別和未見類別之間的平衡。

InPK 在調(diào)和平均數(shù)(HM)指標(biāo)上比現(xiàn)有最優(yōu)方法高出 2.34%,這表明 InPK 能夠有效地平衡模型在已見類別和未見類別上的性能,在提高泛化能力的同時,沒有犧牲在已見類別上的準(zhǔn)確率。

2. 少樣本學(xué)習(xí)

在該實驗設(shè)置中,模型在每個類別的極少量標(biāo)記圖像(4-shot)上進行訓(xùn)練。4-shot 學(xué)習(xí)指的是模型在每個類別僅見過 4 個標(biāo)記樣本的情況下進行學(xué)習(xí)。這種實驗設(shè)置旨在評估模型在數(shù)據(jù)極度匱乏的情況下進行學(xué)習(xí)的能力。

實驗結(jié)果表明,InPK 方法在少樣本學(xué)習(xí)中仍然表現(xiàn)出色,在 11 個數(shù)據(jù)集中的 7 個上取得了最高的準(zhǔn)確率,平均性能比現(xiàn)有最優(yōu)方法提高了 0.92%。這個結(jié)果表明,InPK 方法能夠有效地利用先驗知識來彌補少量樣本帶來的信息不足,從而提升模型在數(shù)據(jù)有限場景下的性能。

少樣本學(xué)習(xí)是機器學(xué)習(xí)中一個重要的研究領(lǐng)域,它旨在解決如何利用極少量的標(biāo)注數(shù)據(jù)來訓(xùn)練模型的問題。InPK 方法在少樣本學(xué)習(xí)任務(wù)中的出色表現(xiàn),進一步證明了其有效性和優(yōu)越性。

3. 跨數(shù)據(jù)集評估

為了進一步驗證模型的泛化能力,作者還在跨數(shù)據(jù)集的設(shè)置中評估了 InPK 方法。在該設(shè)置中,模型在 ImageNet-1K 數(shù)據(jù)集上進行少樣本訓(xùn)練,然后在其他 10 個數(shù)據(jù)集上進行零樣本評估。這種實驗設(shè)置旨在評估模型在面對不同數(shù)據(jù)分布時的泛化能力。

ImageNet-1K 是一個大規(guī)模的圖像數(shù)據(jù)集,包含了 1000 個類別的大量圖像。通過在 ImageNet-1K 上進行訓(xùn)練,模型可以學(xué)習(xí)到豐富的視覺知識。然后在其他 10 個數(shù)據(jù)集上進行零樣本評估,可以檢驗?zāi)P褪欠衲軌驅(qū)⑦@些知識遷移到新的數(shù)據(jù)集上。

實驗結(jié)果表明,InPK 方法在 10 個數(shù)據(jù)集中的 8 個上取得了優(yōu)異的泛化性能,平均準(zhǔn)確率達(dá)到了 69.90%。這個結(jié)果表明,InPK 方法對于不同的數(shù)據(jù)分布具有很強的魯棒性,能夠有效地泛化到新的數(shù)據(jù)集上。

跨數(shù)據(jù)集評估是檢驗?zāi)P头夯芰Φ闹匾侄巍nPK 方法在跨數(shù)據(jù)集評估中的出色表現(xiàn),進一步證明了其強大的泛化能力和魯棒性。

4. 消融實驗

為了更深入地理解 InPK 方法中各個組成部分的作用,作者進行了一系列消融實驗。消融實驗是一種常用的實驗方法,它通過逐步移除模型中的某些組成部分,來分析這些組成部分對模型性能的影響。

在本研究中,作者設(shè)計了一系列消融實驗,以評估以下幾個因素對模型性能的影響:

  • 提示長度:提示長度指的是輸入到模型中的文本提示的長度。作者通過改變提示的長度,來評估提示長度對模型性能的影響。
  • 屬性詞的數(shù)量:屬性詞的數(shù)量指的是在先驗知識中使用的屬性詞的數(shù)量。作者通過改變屬性詞的數(shù)量,來評估屬性詞的數(shù)量對模型性能的影響。
  • 屬性感知注意力機制的插入位置:屬性感知注意力機制是 InPK 方法中的一個關(guān)鍵組成部分。作者通過改變該機制在 Transformer 模型中的插入位置,來評估其對模型性能的影響。
  • 模型組成部分分析:作者通過逐步移除 InPK 模型中的不同組成部分,例如先驗知識注入、屬性感知注意力機制和文本到視覺的投影層,來評估每個組成部分對模型性能的影響。
  • 先驗知識注入的有效性:作者通過比較將先驗知識注入到可學(xué)習(xí)的標(biāo)記中和不注入的情況,來驗證先驗知識注入的有效性。

消融實驗的結(jié)果提供了關(guān)于 InPK 方法的大量有價值的信息。例如,實驗結(jié)果表明,適當(dāng)增加提示長度可以提高模型在新類上的性能,但對基類性能影響不大。這可能是因為更長的提示包含了更多的上下文信息,從而幫助模型更好地區(qū)分不同的類別。

又例如,實驗結(jié)果表明,增加屬性詞的數(shù)量可以提供更全面的類別描述,從而提高模型的整體性能。然而,屬性詞的數(shù)量并不是越多越好,過多的屬性詞可能會引入噪聲,反而降低模型的性能。

消融實驗還表明,屬性感知注意力機制的插入位置對模型性能有很大的影響。將該機制插入到 Transformer 的前幾層可以有效地提高模型性能,但插入過深可能會干擾模型對高級特征的捕獲。

模型組成部分分析的結(jié)果表明,先驗知識的引入和屬性感知注意力機制的使用均能提高模型性能,而文本到視覺的投影層能夠進一步提升跨模態(tài)對齊,從而提高整體性能。

最后,消融實驗驗證了先驗知識注入的有效性。將先驗知識注入到可學(xué)習(xí)的標(biāo)記中可以顯著提高現(xiàn)有提示調(diào)整方法的性能,這表明 InPK 方法的核心思想是有效的。

結(jié)論

InPK 方法通過在提示調(diào)整過程中融入先驗知識,有效地提升了視覺語言模型在零樣本和少樣本視覺識別任務(wù)中的性能。該方法的主要創(chuàng)新之處在于:

  • 在初始化階段將類別特定的先驗知識注入到可學(xué)習(xí)的標(biāo)記中,使得模型能夠更有效地關(guān)注類別相關(guān)的信息。
  • 在多個特征層級上持續(xù)強化可學(xué)習(xí)標(biāo)記與先驗知識之間的交互,使得模型能夠更好地捕獲細(xì)粒度的差異和通用的視覺概念。
  • 引入可學(xué)習(xí)的文本到視覺的投影層,以更好地對齊視覺和文本語義。

大量的實驗結(jié)果表明,InPK 方法在多個圖像分類數(shù)據(jù)集上均取得了顯著優(yōu)于現(xiàn)有方法的性能,展示了其強大的泛化能力和魯棒性。

總結(jié)

InPK 方法為視覺語言模型的提示調(diào)整提供了一個新的思路。它通過有效地融入先驗知識,提高了模型在零樣本和少樣本視覺識別任務(wù)中的性能。該方法在多個數(shù)據(jù)集上取得了顯著的成果,展示了其在實際應(yīng)用中的巨大潛力。未來的研究可以探索如何自動地生成更豐富和更準(zhǔn)確的先驗知識,以及如何將 InPK 方法應(yīng)用到其他視覺語言任務(wù)中,例如圖像描述和視覺問答等等。

參考論文:

arXiv:2502.19777v1 [cs.CV] 27 Feb 2025

本文轉(zhuǎn)載自????上堵吟????,作者:一路到底的孟子敬

收藏
回復(fù)
舉報
回復(fù)
相關(guān)推薦
主站蜘蛛池模板: 一区二区在线观看免费视频 | 精品福利在线 | 国产精品爱久久久久久久 | 日本不卡一区二区三区在线观看 | 国产成人一区二区三区久久久 | 伊人精品久久久久77777 | 亚洲精品成人av | 久久精品久久久 | 粉嫩一区二区三区国产精品 | 欧美精品a∨在线观看不卡 国产精品久久国产精品 | 亚洲欧洲精品一区 | 成人美女免费网站视频 | 热re99久久精品国99热观看 | 日本三级在线 | 一区二区三区在线播放视频 | 国产精品九九九 | 欧美激情第一区 | 国产激情一区二区三区 | 韩国久久| 久久精品这里 | 欧美13videosex性极品 | 日本精品免费 | 天天草天天干 | 色资源站 | 国产成人免费观看 | 日韩看片 | 色综合天天天天做夜夜夜夜做 | 午夜三级在线观看 | www.99热| 日本韩国电影免费观看 | 国色天香综合网 | jdav视频在线观看免费 | 国产激情第一页 | 欧洲一区二区视频 | 性色网站 | 国产91丝袜在线播放 | 午夜视频在线观看一区二区 | 国产日韩精品一区二区 | 精品国产乱码久久久久久牛牛 | 亚洲成人免费电影 | 91视频.|