999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

內隱學習的人工神經網絡模型

2006-01-01 00:00:00郭秀艷魏知超
心理科學進展 2006年6期

摘 要 近年來,人工神經網絡模型常被用來模擬各種心理活動,從而為心理學的一些相關理論提供豐富的證據,內隱學習也不例外。基于權重調整來學習正確反應的人工神經網絡模型和內隱學習的兩大本質特征間有著極為相應的匹配,因此,人工神經網絡模型特別適用于內隱學習研究。到目前為止,針對兩種較為普遍的內隱學習任務,已經相應地出現了兩種使用較為廣泛的神經網絡模型——自動聯系者和簡單循環網絡。

關鍵詞 人工神經網絡模型,人工語法學習,自動聯系者,序列學習,簡單循環網絡。

分類號 B842

1 引言

人工神經網絡模型(Artificial Neural Network Model,簡稱ANN),顧名思義,就是用人造的程序、機械或設備來模擬人腦神經網絡的模型。人工神經網絡模型的用途有二:(1)發明基于神經網絡的人工智能系統,來模擬人的學習、記憶、推理等智能活動,以服務于人類的現實生活;(2)構建各種心理活動和心理過程的模型,以為各種心理學理論提供支持。前者是自動化、通信、制造、經濟領域關注的,我們平時所見的語音識別、經濟領域使用的股票走勢預測等智能系統大多是基于人工神經網絡模型研制出來的。而后者則是心理學家所關注的領域。至今,人工神經網絡模型已被用來模擬諸如知覺、記憶、學習、判斷等各種心理活動,以解釋矛盾的實驗數據,為有關的心理學理論提供豐富的證據。

和其他領域的研究者們一樣,內隱學習領域的研究者們也注意到了這一行之有效的工具。Cleeremans(1993)指出根據已有的內隱學習理論構造人工神經網絡模型,將模型的輸出數據與人類被試的實驗數據進行比較,能為原有的理論觀點提供證據[1]。Dienes和Perner(1996)也有類似的看法[2]。然而,在發揮人工神經網絡模型在內隱學習研究上的功效之前,必須解決如下問題:人工神經網絡模型是否正如Cleeremans等所言適用于內隱學習研究?如果是,用哪類人工神經網絡模型來模擬內隱學習?

2 人工神經網絡模型的工作原理及其研究內隱學習的適用性

人工神經網絡模型之所以適用于內隱學習,是因為它的基本工作原理和內隱學習的兩個本質特征有著驚人的相似。

2.1 人工神經網絡模型的工作原理

早在20世紀40年代,便有研究者對人工神經網絡模型的工作原理做了最初的嘗試。1943年,McCulloch和Pitts用類似“開關”的閾限邏輯單元(Threshold Logic Unit)**來模擬神經元,并將多個這樣的單元以相等的強度(權重)連接起來,形成網絡,這就是著名的MP模型[3]。1949年,Hebb在論述條件反射的形成時,無意間提到了神經元間連接強度更新的重要法則,即兩個彼此相連的神經元同時激活或同時抑制,都能增加神經元間的連接強度,后人稱此為Hebb法則[4]。然而,MP模型和Hebb法則都不能構成真正意義**上的神經網絡模型,雖然,MP模型已經具備將多個神經元連接起來,形成網絡的雛形,但是由于不同單元間的連接強度相等,且恒定不可變化,MP模型不具備人工神經網絡的基本特征——學習性;而Hebb雖然提出了權重變化的一條有效法則,但卻未將其應用到人工神經網絡中來。真正將神經元連接成網絡的思想與借助于權重更新使網絡具有學習性的思想綜合在一起的要屬Rosenblatt。

Rosenblatt(1958)提出了第一個真正意義上的人工神經網絡模型——感知器(Perceptron)[5]。其基本工作原理為:整個感知器由多個不同層次的加工單元組成,每個加工單元的功能類似于單個神經元或一組神經元,它能接收來自前一層的幾個加工單元的激活,并綜合這些激活,對此進行簡單運算(例如:判斷總激活量是否達到某一閾限),然后將運算的結果傳遞給下一層的加工單元。第一層單元的激活模式反映了外部刺激狀態,即模型的輸入,而最后一層單元的激活模式則為模型的輸出反應。某個單元對下一層的另一個單元的影響取決于兩個單元之間連接的強度(權重)。為了在給定輸入的情況下,使模型獲得類似于人類被試的輸出反應,必須不停地調節單元與單元間的連接權重。所以,在構建合適的人工神經網絡模型時,研究者往往會先設置一系列初始權重,然后不斷地給予模型不同的輸入模式,在每個特定輸入后,比較模型輸出與正確輸出間的差異,并據此調整單元間的連接權重,這一過程不斷進行,直到模型輸出和正確輸出間的差異達到最小值,此時,模型便完成了整個學習過程。圖1為一個典型感知器的例子,它旨在判斷呈現于視網膜的光條是垂直的還是水平的。整個感知器由3個加工單元層組成,第一層為網膜層,即將整個視網膜分割為10×10的網格,用每個網膜單元對應于一個網格,共100個單元,當光條落

圖1 感知器例子(資料來源:文獻[3])

在視網膜的某幾個網格上時,這些網格所對應的網膜單元被激活。第二層為聯系層,其中的每個單元總是和某些網膜單元間存在興奮或抑制連接,不論興奮還是抑制連接,強度都是恒定的1或-1,當與聯系單元連接的網膜單元的總激活量達到聯系單元的激活閾限時,聯系單元被激活,例如圖1,Aj的接收到的總激活量為1+1+1-1=2,如果Aj的閾限為2,那么2=2,Aj被激活。第三層為反應層,其中只包括一個反應單元,它與所有的聯系單元連接,連接權重為Wj,其中,j表示第j個聯系單元。反應單元將綜合來自聯系單元的激活信息,即將每個聯系單元的激活量乘以它們之間的連接權重,然后簡單求和,得出總激活量,并判斷激活是否達到閾限,公式表示如下:

aR為反應單元的激活水平,aj為聯系單元的激活水平,θ為閾限值。如果,總激活量達到反應單元的閾限,反應單元被激活(激活量為1),感知器決定光條為垂直,否則,反應單元不被激活(激活量為0),感知器反應光條為水平。當然,感知器必須經過一個漫長的學習階段,才能完成這一簡單的判斷任務。在學習階段,感知器接受各種不同的水平和垂直光條刺激,并一一做出反應,當反應正確時,連接權重不做任何調整,一旦反應錯誤,感知器會自動調整聯系單元與反應單元間的權重,比如:當反應單元的激活量為0時,而實際光條為垂直,說明反應單元所接收到的總激活量小于閾限,此時,則應增大那些被激活的聯系單元與反應單元間的連接權重,以提高總激活量,使其更有可能達到閾限,致使在下次刺激呈現時,感知器更易做出正確反應。當然,Rosenblatt的感知器除了能調整權重外,還會調整反應單元閾限。這種通過逐步調整連接權重和閾限,以減少感知器反應和正確反應間的差距的方法就是著名的感知器收斂法則(perceptron convergence rule)。不過,調整閾限的方法對于擁有多個反應單元的模型來說過于復雜,所以未被以后的人工神經網絡模型采納。

可見,Rosenblatt的貢獻是卓越的,他給出了人工神經網絡的基本工作原理,基于感知器收斂法則發展而來的delta法則與斜率遞減(gradient descent)法已成為如今人工神經網絡最主要的算法,本文第3點中將對此做詳細介紹。然而,值得注意的一點是感知器僅在聯系層和反應層間使用了權重概念,學習過程也僅發生在這兩層之間,所以從本質上講,感知器只屬于包含一個輸入層和一個輸出層的單層網絡(single layer network),這種單層網絡在解決某些實際問題時,遇到了障礙。Minsky等(1969)指出感知器甚至無法模擬諸如XOR(異或)等簡單運算[3]。因此,在接下來的將近20年中,人工神經網絡的發展一度進入低迷期。直到80年代中期,逆向傳導法(back propagation)[6]、自動聯系者(atuoassociator)[7]、循環模型(recurrent model)[8,9]一一提出,多層網絡廣泛應用智能模擬任務中,人工神經網絡才得以迅速發展。然而,這些算法和模型的基本工作原理與最初的感知器卻并無兩樣。

2.2 人工神經網絡模型研究內隱學習的適用性

如上述,人工神經網絡的工作原理為通過調整權重逐步學會正確反應。那么,這些基于調整權重來學習正確反應的人工神經網絡模型是否適于研究內隱學習呢?內隱學習這一概念強調的是兩個特征:第一,它是學習的一種形式;第二,這種學習是內隱的、無需意識努力的。人工神經網絡的工作原理極好地匹配了這兩個特征。首先,要建立針對某一心理活動的合適的網絡模型,必須要經過長期的訓練和學習過程,即向模型呈現許多刺激,要求其做出反應,并將模型反應與要求的正確反應進行比較,據此逐步調整內部結構,使模型在以后的刺激情景中,更易做出正確反應。這種學習過程和人類的學習有著驚人的相似,人類在幼年時,雖然腦神經已發展完全,但是他們仍然不能執行各種認知任務,這時候的人腦就好比初始狀態的神經網絡模型,雖然,已對模型基本結構做了設定(比如,模型由幾個加工單元層組成,每層有幾個單元,哪些單元和哪些單元間存在聯系),但是由于所有的連接權重都是隨機設置的,模型不知道刺激與反應間的聯系,常常會給出錯誤反應,而當經過幾年的學習之后,人類嬰孩不斷地從外界接收刺激,做出反應,并接收來自外界的反饋,將之與自己的反應做比較,逐步通過內部結構的改變,來調整自己的行為,從而能夠知覺事物、理解言語、控制自身的機體運動,這就好比初始狀態的網絡模型,能夠通過調整權重,達到穩定狀態,對刺激模式做出正確反應??梢?,人工神經網絡模型很好地匹配了內隱學習地第一個特征——兩者都是學習過程。其次,內隱學習強調學習是內隱地進行的。由于無法直接探索學習過程是否是內隱的,研究者往往通過驗證學習中所獲得的知識是內隱的來間接推斷學習過程是內隱的,當被試在分類或選擇任務中的表現高于隨機,卻不知道自己是依據何種知識做出正確判斷時,習得的知識被認為是內隱的,從而進一步推斷學習過程也是內隱的[10~12]。人工神經網絡模型也一樣,從根據輸出結構來調整權重的過程來看,根本無法判斷學習過程是否是內隱的,而類似的,人工神經網絡的知識表征形式顯示神經網絡模型所獲得的知識很有可能是內隱的。當人工神經網絡能做到正確反應時,指導模型該如何反應的知識似乎是存在于單元的組織結構和他們之間的連接權重上,根本無法直接從這種無序而雜亂的結構和權重上看出什么規則,例如:上述判斷光條垂直和水平的感知器,我們并無法從直觀上判斷哪些單元表征垂直光條,哪些單元表征水平光條,這種知識表征形式很有可能是內隱的。這種知識的表征形式被稱為分布式表征(distributed representation),它和傳統的局部表征(local representation)很不一樣,局部表征中,每個用不同的單元表征不同的事物,例如:單元1表征事物1,單元2表征事物2……,在知識提取時,就好比查字典一樣,根據不同的事物,找到表征的位置,便可以獲悉有關事物的各種知識。而分布表征可以將不同的事物表征在同一組單元中,比如垂直光條和水平光條,在知識提取時,往往只需輸入新刺激的內容,比如光條激活了視網膜的哪些區域,便能根據內容找到合適的反應。

3 廣泛應用于內隱學習領域的兩種人工神經網絡模型

人工神經網絡模型很好地匹配內隱學習的兩大基本特征。因此,許多研究者針對不同的內隱學習任務,選擇不同的人工神經網絡模型來擬合內隱學習過程,以探討內隱學習的本質和機制[13~17]。

縱觀近40年來的內隱學習研究,雖然不同的研究者開發了許多不同的任務形式,獲得了許多可喜的研究成果,但是這些任務都離不開兩種根本的任務形式——人工語法學習和序列學習。相應地,根據兩個任務的不同特點,研究者選擇了兩種不同的模型——自動聯系者和簡單循環網絡(simple recurrent network,簡稱SRN)——分別對之加以模擬。

3.1 人工語法學習與自動聯系者

人工語法學習任務通常是:在學習階段,要求被試在不知道內在規則的情況下記憶一大堆合法字符串,然后,在測試階段,向被試呈現一批新的合法和非法字符串,并告知前面學習的字符串是一類符合語法規則的合法字符串,要求被試根據前面的學習,判斷新的字符串是否合法[10]。從測試階段的要求、學習階段的要求和所學習的知識這三個不同的角度來看,人工語法學習具有三個主要特征:

第一,測試階段要求被試進行的是一項典型的分類任務。相應地,檢索1943年以來,人工神經網絡模型發展的這段歷史,便可以發現只有模式聯系者(pattern associator)是專門針對模式識別和分類而開發出來的模型。模式聯系者的誕生源自于條件反射的思想,即建立刺激和反應間的聯系。用模式聯系者的話說,就是對于特定的輸入刺激模式,給出相應的反應模式。有趣的是,當用一組單元表示輸入模式,另一組單元表示輸出模式,它們兩兩連接在一起(如圖2),并使用Hebb法則△Wij=εαiαi更新權重時(其中,ΔWij為輸入單元j和輸出單元i之間權重的變化量,ε為學習速率,是常數,aWi為輸出單元的激活量,aWj為輸入單元的激活量),模式聯系者便能在同一個模型中存儲不同的輸入模式,將反應模式相同的輸入模式歸于同一類,并且當模式中的某些量缺失時,比如某個輸入單元損壞,模型仍能正常運行[3]??梢姡J铰撓嫡吣軌蛴行У啬M分類任務,甚至是某些腦神經受損病人(相當于某些輸入或輸出單元受損)的分類活動。然而,人工語法學習并不僅是單純的分類任務,它還具有其他特征,因此,只模擬測試階段的分類任務是遠遠不夠的。

第二,人工語法學習的另一個特征是,學習階段要求被試在沒有任何指導(反饋)的情況下學習字符串,即并沒有在被試學習某一字符串的同時,告訴他們這一字符串屬于哪一類,合法還是非法。投射到模式聯系者中,就是在學習對特定刺激模式的分類時,不伴隨相應的反應模式,即沒有輸出單元。事實上,人類的許多學習過程都是在沒有外部指導的情況下進行的。比方說,當孩子看到麻雀和燕子(刺激模式)時,家長告訴他這是鳥(反應模式),但很多時候,家長并不在身邊,比如,當孩子看到鴿子時,沒有外在反應模式指導,孩子仍能反應為鳥,人類似乎能夠在沒有外在的反應模式引導教育的情況下,學會分類。人工語法學習也是一樣,雖然在學習時,沒有被告知哪些合法,哪些不合法,但是被試仍能學會分類規則。這些事實提示研究者:必須開發一種沒有外在引導者的自適應模型。于是,McClelland 和Rumelhart(1985)在對模式聯系者稍做調整的基礎上,提出了模式聯系者的一個自適應特例——自動聯系者[7]。由于沒有外部引導,任何自適應模型必須具備自我反饋的功能,自動聯系者也一樣,如圖3所示,每個單元除了接收外部輸入(e)以外,還必須接收來自其他單元的內部輸入(i),這種存在內部反饋的模型被稱為循環模型。為了達到分類的目的,自動聯系者旨在再現單元的外部輸入模式,就好像人工語法學

圖3 含有8個單元的自動聯系者(資料來源:文獻[7])

習中,記憶字符串一樣。而為了達到這一點,必須調節連接權重,使單元的內部輸入能匹配外部輸入,用公式表示為:

aWj為單元j的激活量。雖然,自動聯系者模型沒有可比對的反應模式,但是,上述算法的核心仍是用內部狀態去匹配外部狀態,盡量減少兩者間的差異,因此,上述公式仍可看成delta法則*的變式。當然,除了使用delta法則來訓練自動聯系者外,也有研究者(例如,文獻[14])使用類似模式聯系者的Hebb法則訓練該模型。和模式聯系者一樣,自動聯系者也能習得不同的外部輸入模式,并對此做出分類??梢姡詣勇撓嫡吣軌蚝芎玫啬M人工語法學習任務學習和測試階段的表面屬性——無外部引導的分類學習任務。然而,它是否能模擬語法學習這一內部屬性呢?

第三,人工語法學習的本質特征在于所獲得的是有關語法的知識。雖然,如前所述,自動聯系者獲得的是一種無法外顯的分布性表征的知識,但是,有意思的是這種表征似乎代表了某一類別的原型。而原型或許就好比語法的抽象表示方法。McClelland 和Rumelhart(1985)曾構建了一個由24個單元組成的自動聯系者,將一些有關狗的信息輸入這24個單元[7],其中前8個單元輸入的是狗的名字信息,后16個單元輸入的是狗的外貌信息,結果發現經過訓練后,模型的權重矩陣呈現出特殊的構造,即前8個單元之間及前3個單元與后16個單元間的權重處于隨機水平,而后16個單元間的權重卻出現某種固定的模式,McClelland和Rumelhart認為這種固定的模式就是狗視覺表象的原型。雖然,無法從這種固定的權重模式中,看出典型的狗應該具有哪些特征,但是至少可以認為,如果兩個單元間的連接權重比較大,那么當這兩個單元同時被激活時,模型有可能將目標判斷為狗。也就是說,原型所表征的是每個視覺特征間的聯系。這就好比,人工語法學習中的語法知識,語法或許是由字母間的聯系所表征的。所以,從這點意義上來,自動聯系者習得的原型或許就是語法知識。

3.2 序列學習和簡單循環網絡

序列學習任務要求被試對一系列規則序列進行選擇反應,其假設為:如果被試習得了序列間存在的固定規則,則他們可以依據前面呈現的序列來預測下一個項目是什么,成功的預測將會縮短被試的反應時[11]。序列學習和人工語法學習之間的本質區別在于:它是一項預測任務,而非分類任務,被試對某一項目的反應依賴于前面的項目。

1990年,Elman開發了簡單循環網絡,專門用來模擬這類預測任務[9]。簡單循環網絡的目的是根據當前輸入的項目來預測下一個項目,它的基本結構如圖4所示,由4個加工單元層組成,它們分別是輸入單元層、隱含單元層、上下文單元層和輸出單元層。輸入單元層用于表征當前輸入的項目,輸出單元層用于表征模型所預測的項目,上下文單元層用于表征在當前項目之前出現的項目序列,而隱含單元層負責在輸入、輸出和上下文單元層間的信息傳遞。簡單循環網絡的工作原理為:在接收第一

圖4 簡單循環網絡的基本結構(資料來源:文獻[16])

個項目時,輸入層中的某些單元被激活,并將激活傳遞給隱含層中的單元,隱含層除了將激活進一步傳遞給輸出層,由輸出層預測第二個項目外,還將自己的激活水平復制于上下文層,當接收第二個項目時,隱含層除了收到來自輸入層的激活外,還將收到來自上下文層的激活,因此,它向輸出層傳遞的激活則包含了第一和第二兩個項目的信息,依此類推,輸出層所做出的預測是基于包含當前項目之內的所有項目的信息。當然,和其他許多人工神經網絡模型一樣,簡單循環模型依據delta法則來調整權重的,即將模型給出的預測與真實出現的后續項目進行比較,來調整權重。不過,簡單循環網絡所使用的delta法則和自動聯系者有兩點差異:(1)權重調整是通過斜率遞減法進行的,即尋求預測反應和真實項目之間誤差方差的最小值,用公式表示為:

其中,tout為真實的正確輸出,aout為模型的預測輸出;(2)不同于自動聯系者,簡單循環網絡是多層模型,當調整輸出層單元和隱含層單元間的權重時,計算預測和真實項目間的誤差方差是可以直接計算獲得的,然而當要調整隱含層單元與輸入層單元或上下文層單元間的權重時,由于不存在真實的正確反應,誤差方差則無從計算,所以Rumelhart和McClelland(1986)提出可以用輸出層單元的誤差來估計隱含層單元的誤差,即某一隱含單元的誤差為所有與之連接的輸出層單元的誤差與它們之間權重乘積求和的函數[6]

然后,同樣用斜率遞減法求出權重的變化量,這種誤差計算的法則和簡單循環網絡中原有的信息流方向正好相反,所以又被稱為逆向推導。

簡單循環網絡能有效地模擬序列學習中的預測機制,因此,它剛提出不久,就被用于模擬內隱序列學習,用來研究序列學習的抽象性等問題[13,15,16]。

總之,針對不同的內隱學習任務,為了得到更佳的模擬效果,研究者往往傾向于選擇不同人工神經網絡模型加以模擬。然而,就像是任務之間的劃分并不絕對一樣(比如:Cleeremans等就曾將人工語法和序列學習結合在同一個任務中),神經網絡模型和內隱學習任務間的匹配也并不絕對,比如:Boucher等(2003)就層用簡單循環網絡來模擬序列學習[17]。

4 小結

基于權重調整來學習正確反應的人工神經網絡模型和內隱學習的兩大本質特征間有著極優的匹配,人工神經網絡模型在內隱學習領域的適用性毋庸置疑。在這樣的背景下,出于深入探討內隱學習的目的,研究者紛紛根據不同的內隱學習任務,選用不同的人工神經網絡模型對之加以模擬[18]。到目前為止,針對兩種較為普遍的內隱學習任務,也相應地出現了兩種使用較為廣泛的神經網絡模型——自動聯系者和簡單循環網絡。在實際研究中,合理地使用這兩個模型,必將為內隱學習的理論和人工模擬提供更有力的證據。

參考文獻

[1] Cleeremans A. Mechanisms of Implicit Learning: Connectionist Models of Sequence Processing. In: Jeffrey L E ed. Neural Network Modeling and Connectionism. London: MIT Press, 1993

[2] Dienes Z, Perner J. Implicit knowledge in people and connectionist networks. In: Underwood G.. Implicit cognition. Oxford: Oxford University Press, 1996

[3] McLeod P, Plunkett K, Rolls E T. Introduction to Connectionist Modelling of Cognitive Processes. Oxford: Oxford University Press, 1998

[4] Milner P. A Brief History of the Hebbian Learning Rule. Canadian Psychology, 2003, 44(1): 5~9

[5] Rosenblatt F. The perceptron: A probabilistic model for information storage and organization in the brain. Psychological Reviews, 1958, 65: 386~408

[6] Rumelhart D, McClelland J. Parallel distributed processing (vol. 1). Cambridge: MIT press, 1986a

[7] McClelland J, Rumelhart D. Distributed Memory and the Represantation of General and Specific Information. Journal of Experimental Psychology: General, 1985, 114(2): 159~188

[8] Jordan M. An introduction to linear algebra in parallel distributed processing. In: Rumelhart D, McClelland J ed. Parallel distributed processing (vol. 1). Cambridge: MIT press, 1986a. 365~422

[9] Elman J. Finding structure in time. Cognitive Science, 1990, 14(2): 179~212

[10] Reber A S. Implicit learning of artificial grammars. Journal of Verbal Learning and Verbal Behavior, 1967, 6(2): 317~327

[11] Nissen M J, Bullemer P. Attentional requirement of learning: Evidence from performance measures. Cognitive Psychology, 1987, 19(1): 1~32

[13] 郭秀艷, 鄒玉梅, 李強等. 中學生顏色內隱學習特征的實驗研究. 心理與行為研究, 2003, 1(2): 122~127

[14] Cleeremans A, McClelland J L. Learning the Structure of Event Sequence. Journal of Experimental Psychology: General, 1991, 120(3): 235~253

[15] Dienes Z. Connectionist and Memory-Array Models of Artificial Grammar Learning. Cognitive Science, 1992, 16(1): 41~79

[16] Jiménez L, Méndez C, Cleeremans A. Comparing Direct and Indirect Measures of Sequence Learning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 1996, 22(4): 948~969

[17] Dienes Z, Altmann G, Gao S J. Mapping across Domains Without Feedback: A Neural Network Model of Transfer of Implicit Knowledge. Cognitive Science, 1999, 23(1): 53~82

[18] Boucher L, Dienes Z. Two ways of learning associations. Cognitive Science, 2003, 27(6): 807~842

[19] 郭秀艷, 朱磊. 神經網絡模型對內隱學習的探索. 心理科學, 2006, 29(2): 410~415

主站蜘蛛池模板: 中文字幕人成乱码熟女免费| 欧美yw精品日本国产精品| 操操操综合网| 亚洲综合在线最大成人| 中国国产一级毛片| 婷婷五月在线| 亚洲人成人无码www| 欧美日韩久久综合| 久久99精品国产麻豆宅宅| 日韩欧美在线观看| 亚洲天堂自拍| 国产香蕉97碰碰视频VA碰碰看| 久久亚洲国产一区二区| 国产主播一区二区三区| 精品久久综合1区2区3区激情| 丝袜美女被出水视频一区| 亚洲欧美综合精品久久成人网| 一本大道香蕉中文日本不卡高清二区| 欧日韩在线不卡视频| 亚洲精品va| 一级不卡毛片| 国产成人精品男人的天堂| 国产丝袜丝视频在线观看| 欧美天堂在线| 精品久久人人爽人人玩人人妻| www.91中文字幕| 国产精品制服| 精品国产香蕉在线播出| 国产一级视频久久| 成年人免费国产视频| 亚洲男人的天堂久久香蕉 | 国产中文一区a级毛片视频| 亚洲天堂精品在线| 26uuu国产精品视频| 九九热精品视频在线| 成人综合久久综合| 91精品综合| 国产日本欧美亚洲精品视| 亚洲精品无码专区在线观看 | 国产91高清视频| 免费观看欧美性一级| 色老二精品视频在线观看| 一级毛片免费高清视频| 亚洲午夜福利精品无码| 精品久久久久久久久久久| 欧美狠狠干| 激情成人综合网| 国产日本欧美在线观看| 国产欧美在线观看视频| 久久精品波多野结衣| Aⅴ无码专区在线观看| 久久综合色视频| 成·人免费午夜无码视频在线观看 | 97超碰精品成人国产| 国产网站免费| 亚洲精品视频网| 天堂岛国av无码免费无禁网站| 99久久精品国产自免费| 91无码人妻精品一区二区蜜桃| 色国产视频| 99视频在线精品免费观看6| 996免费视频国产在线播放| 91精品综合| 欧美精品成人一区二区在线观看| 欧美日韩亚洲国产主播第一区| V一区无码内射国产| 欧美一级爱操视频| 另类综合视频| 国产欧美视频一区二区三区| 久久精品aⅴ无码中文字幕 | 国产AV无码专区亚洲精品网站| 乱色熟女综合一区二区| 综合久久五月天| 久久国产av麻豆| 一本大道无码日韩精品影视| 一级毛片在线播放| 欧美日韩高清| 日本爱爱精品一区二区| 亚洲日韩精品欧美中文字幕| 一本大道香蕉高清久久| 波多野结衣中文字幕久久| 日韩无码视频网站|