999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于圖多任務學習的潮流分析模型

2023-12-30 03:17:42李駪?zhàn)?/span>梁志堅劉敏楊武潘智沖王驍睿
南方電網(wǎng)技術(shù) 2023年11期
關(guān)鍵詞:特征方法模型

李駪?zhàn)褐緢裕瑒⒚簦瑮钗洌酥菦_,王驍睿

(1.廣西大學電氣工程學院,南寧 530004;2.暨南大學能源電力研究中心,廣東 珠海 519070;3.北京師范大學人工智能學院,北京 100875)

0 引言

潮流分析在電網(wǎng)規(guī)劃和設(shè)計、電網(wǎng)運行狀態(tài)分析、電網(wǎng)故障分析中有著廣泛的應用。然而隨著我國電網(wǎng)的發(fā)展,不同區(qū)域間電網(wǎng)互聯(lián)更加緊密,電網(wǎng)設(shè)備負載加重,傳統(tǒng)潮流計算方法如牛頓-拉夫遜(Newton-Raphson,N-R)法易出現(xiàn)病態(tài)潮流[1],造成求解速度慢、潮流計算不收斂等問題[2],在實時在線潮流分析、概率潮流計算、電網(wǎng)安全性校核等需大批量潮流計算的場景中尤為突出。

作為數(shù)據(jù)驅(qū)動類方法,基于深度學習的潮流分析方法可以直接擬合現(xiàn)實電力系統(tǒng)潮流初值到潮流分布之間的映射關(guān)系,無需迭代計算雅可比矩陣,因此時間復雜度僅隨節(jié)點規(guī)模增長呈線性關(guān)系,且不會出現(xiàn)雅可比矩陣條件數(shù)過大導致病態(tài)潮流問題[3]。國內(nèi)外研究者們注意到了這一優(yōu)勢并展開了相關(guān)研究。早在20世紀80年代,文獻[4]就提出利用多層感知機(multilayer perceptron,MLP)對潮流分布進行求解;文獻[5]在訓練中模擬了一些簡單的偶發(fā)情況,使得模型能夠計算簡單偶然情況下的電網(wǎng)潮流分布;文獻[6]則以支路開斷前后各支路的有功功率之差表征網(wǎng)絡拓撲結(jié)構(gòu)的變化,使得模型可以計算電網(wǎng)支路故障后的潮流分布。

上述基于歐式數(shù)據(jù)的神經(jīng)網(wǎng)絡雖在潮流分析問題中取得了一定的成效,但卻忽略了電力系統(tǒng)潮流數(shù)據(jù)作為圖結(jié)構(gòu)數(shù)據(jù)的實質(zhì),定義在歐式域中的一些關(guān)鍵計算,如卷積計算并不適用于處理不規(guī)則的圖結(jié)構(gòu)數(shù)據(jù)[7]。因此,可以直接接受任意節(jié)點規(guī)模、任意拓撲結(jié)構(gòu)的圖結(jié)構(gòu)數(shù)據(jù)作為輸入,實現(xiàn)端到端學習的圖神經(jīng)網(wǎng)絡(graph neural network,GNN)[8]更契合潮流分析問題的需求。文獻[9]基于圖卷積神經(jīng)網(wǎng)絡(graph convolution network,GCN)[10]提出了純數(shù)據(jù)驅(qū)動的潮流分布計算方法;文獻[11]則更進一步將GCN 潮流計算模型嵌入概率潮流分布計算中;文獻[12]則在GCN 潮流計算模型訓練過程中令其最大程度滿足實際物理規(guī)律約束;文獻[13]考慮潮流計算存在不同節(jié)點類型,提出通過類型圖網(wǎng)絡(typed graph networks,TGNs)[14]求解潮流分布。

然而現(xiàn)有基于深度學習的潮流計算方法局限于潮流分布計算,僅利用神經(jīng)網(wǎng)絡擬合潮流初值信息到潮流分布之間的關(guān)系,未考慮潮流不收斂情況。從神經(jīng)網(wǎng)絡建模的角度來看,潮流分布計算則是以潮流初值為輸入變量,以潮流分布作為輸出的回歸問題,而潮流判斂是以潮流初值為輸入變量,以潮流是否收斂為輸出變量的二分類問題,二者在模型結(jié)構(gòu)上存在本質(zhì)性的區(qū)別[15]。因此基于回歸模型的潮流分布求解模型不具有潮流判斂功能,對輸入的潮流不收斂的案例仍會給出虛假的系統(tǒng)潮流分布,只能用于求解收斂的潮流分布。此缺陷極大程度地限制了深度學習潮流計算方法的實際應用,目前有關(guān)基于數(shù)據(jù)驅(qū)動的潮流判斂研究較少。文獻[16]在DNN 輸入特征中加入無功功率調(diào)節(jié)能力指數(shù)集及功率因數(shù)水平指數(shù)集進行潮流判斂,然其受限于DNN 框架無法應用于網(wǎng)絡拓撲變化的電網(wǎng)中且不考慮潮流分布計算,尚需更深入地研究。

針對此問題,本文提出了一種全新的適用于潮流分析問題的圖多任務學習模型,在保持基于深度學習的潮流計算方法優(yōu)勢的同時,解決其不考慮潮流不收斂問題。

本文主要工作如下。

1)在模型結(jié)構(gòu)方面,建立適用于潮流分析任務的圖多任務學習模型,模型同時具備潮流判斂及潮流分布計算功能。

2)針對潮流計算中不同類型節(jié)點具有不同潮流初值問題,通過異構(gòu)特征提取層對潮流計算中PQ、PV與Vθ節(jié)點的輸入特征進行差異化處理。

3)在圖神經(jīng)網(wǎng)絡方面,針對經(jīng)典圖卷積與圖池化方法不考慮邊信息的缺陷,結(jié)合電力系統(tǒng)物理特性改進圖注意力機制,提出雙視角圖注意力網(wǎng)絡(double-view graph attention network,DGAT),并將其應用于圖池化計算中,提出圖自注意力聚合池化方法(graph self-attention aggregation pooling,GSAPool)。

1 基于圖神經(jīng)網(wǎng)絡的潮流分析

1.1 潮流分析問題圖結(jié)構(gòu)數(shù)據(jù)建模

潮流計算中所需節(jié)點信息包含節(jié)點類型T、電壓初值U、相角初值θ,負載的有功功率PL和無功功率QL,發(fā)電機的有功出力PG、無功出力QG,由于潮流計算中發(fā)電機節(jié)點無功越限會導致節(jié)點類型轉(zhuǎn)換[17],本文在節(jié)點信息中加入發(fā)電機無功功率上下限Qmax、Qmin,使所提模型可以隱式地考慮節(jié)點類型轉(zhuǎn)換對潮流收斂性的影響。邊信息則為線路導納yij。電網(wǎng)G={V,E}為節(jié)點集合V與邊集合E。vi∈V表示圖中第i個節(jié)點,其特征(若節(jié)點為非發(fā)電機節(jié)點則、Qmax及Qmin均為0),所有節(jié)點特征可用節(jié)點特征矩陣HN×9=表示,N為節(jié)點數(shù)量。由于節(jié)點特征向量涉及電壓、相角、功率3 個不同量綱間的值,為了消除數(shù)據(jù)特征之間的量綱影響,對節(jié)點特征向量進行標準化處理。

不同于一般的圖結(jié)構(gòu)數(shù)據(jù),在潮流分析中拓撲關(guān)系及邊屬性都可通過節(jié)點導納矩陣YN×N來表示。節(jié)點導納矩陣非常直觀地反映了電力系統(tǒng)的拓撲連接方式及線路導納,因此本文所提圖分類器直接采用節(jié)點導納矩陣作為邊特征。

1.2 基于DGAT-GSAPool的圖多任務學習模型

本文所提圖多任務學習模型的整體結(jié)構(gòu)如圖1所示,在通過同構(gòu)化層消除圖中異構(gòu)性后,通過六層DGAT 圖卷積層對圖中節(jié)點特征進行提取。為提取全圖特征,在前兩層DGAT 圖卷積層后進行GSAPool 全局圖池化計算。同時,采用殘差結(jié)構(gòu)避免訓練過程中的梯度消失問題。最后,將兩層圖池化層提取出的全局圖特征拼接后輸入圖分類器,將最后一層圖卷積層提取出的節(jié)點特征作為系統(tǒng)潮流分布,獲得潮流分析結(jié)果,即潮流是否收斂與潮流分布情況。模型各層詳細參數(shù)如表1 所示,模型中激活函數(shù)采用RReLu 函數(shù),RReLu 函數(shù)為改進的LeakyReLu 函數(shù),在保留其避免神經(jīng)元死亡優(yōu)勢的同時,可以更好地避免過擬合。其計算公式如式(1)所示。

圖1 DGAT-GPPool圖分類器結(jié)構(gòu)Fig.1 Structure of DGAT-GPPool graph classifier

表1 DGAT-GPPool圖分類器結(jié)構(gòu)參數(shù)Tab.1 DGAT-GPPool graph classifier structure parameters

式中α~為隨機常數(shù)。

1.3 同構(gòu)化層

由于電力系統(tǒng)實際條件的限制,從不同節(jié)點獲取的潮流初值存在差異,潮流計算中將節(jié)點分為PQ、PV及Vθ節(jié)點三類,因此從潮流計算的角度來看,電力系統(tǒng)天然為一張異構(gòu)圖。異構(gòu)圖中的節(jié)點通常具有不同的特征[18],直接將基于同構(gòu)圖的圖神經(jīng)網(wǎng)絡用于異構(gòu)圖通常不具有說服力[19],因此需要一些額外的工作來消除圖的異構(gòu)性。本文所提模型對不同類型節(jié)點的特征采用不同的可學習線性變換進行特征提取,經(jīng)特征提取后異構(gòu)圖可視作同構(gòu)圖,提取方式如式(2)所示:

1.4 雙視角圖注意力網(wǎng)絡層

針對經(jīng)典圖卷積方法不考慮邊屬性的缺陷,本文提出考慮線路導納的雙視角圖注意力機制。結(jié)合電力系統(tǒng)中兩節(jié)點間線路導納越大相互聯(lián)系越緊密這一物理特性,雙視角注意力機制在通過經(jīng)典圖注意力機制[20]計算出節(jié)點注意力系數(shù)的同時,根據(jù)線路導納計算出邊注意力系數(shù),最后通過可學習權(quán)重參數(shù)將兩視角下的注意力系數(shù)加權(quán)平均得到綜合注意力系數(shù),計算公式如式(3)所示。

圖卷積運算通過消息傳遞聚合機制定義了每個節(jié)點上的局部圖卷積[7],讓每個節(jié)點聚合其鄰居節(jié)點及自身的特征向量用以計算自身新的特征向量,使得神經(jīng)網(wǎng)絡能感受圖的拓撲結(jié)構(gòu)。如圖2 所示為多層圖卷積運算中消息傳遞聚合機制示意圖,可見節(jié)點特征在圖上的傳遞可以類比于能量在電網(wǎng)上的流動,因此基于消息傳遞聚合機制的圖卷積方法更適用于求解潮流分析問題,可以進一步地提高模型的可解釋性[21]。

圖2 消息傳遞聚合機制示意圖Fig.2 Schematic of the messaging aggregation mechanism

圖3 源場景及擴展場景電氣接線圖Fig.3 Electrical wiring diagram in the source and extension scenes

計算出綜合注意力分數(shù)之后,DGAT 通過如式(4)所示消息傳遞聚合機制完成節(jié)點特征的更新。

1.5 圖自注意力池化層

基于GNN 的圖分類方法主要運用圖卷積運算對圖域數(shù)據(jù)的進行特征提取[14],通過圖池化運算總結(jié)出代表全圖信息的圖級特征,最后將圖級特征輸入分類器完成圖級的分類[22]。

作為基于GNN 的圖分類方法中必不可少的一環(huán),圖池化對潮流判斂問題的圖分類求解至關(guān)重要。然而主流圖池化方法同樣不考慮邊屬性對圖級特征的影響。針對此問題,結(jié)合上一節(jié)中所提DGAT 方法,本文提出一種考慮邊特征的全局圖池化方法。

圖自注意力池化方法首先計算每個節(jié)點的注意力權(quán)重。通過DGAT 圖卷積方法,綜合考慮圖中節(jié)點特征、邊特征與網(wǎng)絡拓撲,為圖中所有節(jié)點賦予一個自注意力系數(shù),自注意力系數(shù)越高的節(jié)點在圖中的重要性越大。所得自注意力系數(shù)在歸一化后作為自注意力權(quán)重,其計算公式如式(5)所示。

式中:H為節(jié)點特征矩陣;Y為節(jié)點導納矩陣;為各節(jié)點權(quán)重組成向量。DGAT 為1.4 節(jié)所述雙視角圖注意力網(wǎng)絡,其輸出特征緯度為1;softmax(·)為歸一化函數(shù),計算公式如式(6)所示:

式中n為需歸一化的元素總數(shù)。得到各節(jié)點自注意力權(quán)重后,通過加權(quán)平均聚合圖內(nèi)所有節(jié)點特征以獲得圖級特征向量,最后通過可學習線性變換縮減其參數(shù)量。計算公式如式(7)所示:

1.6 圖分類層

在圖多任務學習模型中,圖分類層對圖池化層提取出的全局圖特征進行最后的處理,使其重新具備實際的物理意義以滿足圖分類任務要求。如圖1所示,圖多任務學習模型在堆疊的DGAT 圖卷積層中添加數(shù)層GSAPool層以提取不同層次下的圖級特征向量,因此本文先通過注意力結(jié)構(gòu)將多層圖級特征向量進行特征聚合,計算公式如式(8)所示:

式中:r為模型圖分類任務最終輸出分類結(jié)果,當r<0.5 時表示輸入樣本潮流不收斂,否則表示潮流收斂;sigmoid(·)為激活函數(shù),將MLP 輸出值映射到[0,1]之間,其計算公式如式(10)所示:

2 算例分析

2.1 數(shù)據(jù)生成

本文訓練集及測試集選取IEEE14 節(jié)點系統(tǒng)作為源場景,在源場景的基礎(chǔ)上考慮節(jié)點故障、線路檢修、發(fā)電機檢修及設(shè)備投運設(shè)計4 種擴展場景,源場景及擴展場景電氣接線圖如圖4 所示。在源場景及擴展場景基礎(chǔ)上通過修改各場景中節(jié)點電壓、相角、有功出力、無功出力、有功負荷、無功負荷、線路電阻及電抗值得到樣本,各參數(shù)均以初始參數(shù)為基準值在70%~130%間按均勻分布隨機波動。

圖4 圖分類任務損失下降過程Fig.4 Graph classify task loss descent process

圖5 圖分類任務準確率上升過程Fig.5 Graph classify task accuracy rise process

樣本生成后利用基于Python環(huán)境的潮流工具包pypower 對樣本進行基于N-R 法的潮流計算,設(shè)置誤差閾值為ε=10-8,最高迭代次數(shù)為50 次,根據(jù)計算結(jié)果對樣本進行標注。最終取8 000 份潮流樣本作為訓練集,2 000 份潮流樣本作為測試集,訓練集與測試集中潮流收斂樣本占總樣本數(shù)的50%,滿足數(shù)據(jù)均勻分布要求。本文模型使用python語言編寫,基于pytorch框架完成。

2.2 模型性能分析

本文將模型性能分為計算精度與計算速度兩個維度,并對其分別進行測試。

在計算精度方面,本文將所提基于DGATGSAPool 的圖多任務學習模型投入2.1 節(jié)所述數(shù)據(jù)集進行500次訓練與測試。

在圖分類任務方面,模型通過二元交叉熵(binary cross entropy,BCE)損失計算方法作為模型在圖分類問題上的損失函數(shù),訓練過程如圖4—5所示。

由圖4 可以看出,在約300 輪訓練后本文所提圖多任務學習模型分類任務上的損失不再下降。最后一輪訓練后,模型在訓練集上損失為0.073 4,準確率達到97.52%,F(xiàn)1 分數(shù)達到0.977 4;在測試集上損失為0.064 7,準確率達到98.81%,F(xiàn)1 分數(shù)達到0.988 2。

在回歸任務方面,模型通過平均百分比誤差(mean absolute percentage error,MAPE)損失作為模型的在圖回歸問題上的損失函數(shù),訓練過程如圖6所示。

圖6 圖回歸任務損失下降過程Fig.6 Graph regression task loss descent process

由圖6 可以看出,同樣在約300 輪訓練后本文所提圖多任務學習模型回歸任務上的損失不再下降。最后一輪訓練后,模型在訓練集上損失為0.021 8,在測試集上損失為0.014 2。由于回歸任務損失通過MAPE 方法計算得到,因此模型在訓練集上精度97.82%,在測試集上達到98.58%。

在計算速度方面,由于N-R 法通過迭代計算求解,其求解速度取決于輸入潮流初值的優(yōu)劣,難以通過時間復雜度分析的方法對其進行評估,因此本文采用實測的方法進行計算速度的對比。

基于DGAT-GPPool 圖分類器的潮流判斂方法與傳統(tǒng)計算方法在對不同規(guī)模的10 000個系統(tǒng)樣本進行潮流判斂的耗時如表2 所示,測試數(shù)據(jù)集生成方式與2.1 節(jié)一致。由于pypower 在計算時無法通過GPU 加速計算,出于公平的目的,測試時DGAT-GPPool圖分類器亦未采用GPU加速計算。

表2 計算速度對比Tab.2 Calculation speed comparisons s

從表2 可見,本文所提圖分類器直接擬合了系統(tǒng)穩(wěn)態(tài)信息到系統(tǒng)是否潮流收斂及潮流分布的映射關(guān)系,因此可直接根據(jù)輸入的圖結(jié)構(gòu)數(shù)據(jù)判斷此系統(tǒng)是否潮流收斂及求解系統(tǒng)潮流分布,無需迭代求解雅可比矩陣,因此在計算耗時方面約為傳統(tǒng)計算方法的四分之一。

2.3 消融實驗及對比試驗

2.3.1 實驗設(shè)置

為驗證本文所提基于DGAT-GSAPool的圖多任務學習的有效性,本文將所提模型與經(jīng)典圖卷積及圖池化算法進行對比,對比實驗中僅使用對比模型替換所提圖多任務學習模型中對應部分,并不改變模型整體結(jié)構(gòu),模型結(jié)構(gòu)與超參數(shù)設(shè)置均如1.2節(jié)所示。所有模型均基于3.1節(jié)中所述訓練集進行訓練,評估結(jié)果也均基于相同測試集上的測試結(jié)果計算得到。

2.3.2 圖卷積方法對比

在同構(gòu)化層消融實驗中,本文將驗證同構(gòu)化層的有效性將所提模型與未添加同構(gòu)化層的相同模型進行對比。消融實驗中僅刪去所提模型中對應部分,但為保證后者正常運行,需將模型中第一層4頭DGAT 層的輸入特征緯度修改為八維,其余超參數(shù)保持不變。由于同構(gòu)化層同時影響圖分類及圖池化任務,因此此處對比各組模型的總損失,各模型在測試集上表現(xiàn)如圖7所示。

圖7 同構(gòu)化層消融實驗總損失下降過程Fig.7 Total loss decrease process in isomorphic layer ablation experiments

從圖7 可以看出,由于無同構(gòu)化層模型不具有區(qū)分不同類型節(jié)點的能力,將來自不同類型節(jié)點的不同維度的特征向量直接輸入基于同構(gòu)圖的模型中,導致模型整體效果較差。所提模型通過同構(gòu)化層消除輸入樣本的異構(gòu)性,模型效果提升較大,證明本文所提同構(gòu)化層的有效性。

2.3.3 圖卷積方法對比實驗

為分析圖卷積方法對圖分類器表現(xiàn)的影響,選取GCN[10]-GSAPool 模型、GAT[20]-GSAPool 模型、SAGE[23]-GSAPool 模型及所提DGAT-GSAPool 模型進行對比實驗,上述模型中GSAPool中所用圖卷積方法亦改為對應圖卷積方法。由于圖卷積方法同時影響圖分類及圖池化任務,因此此處對比各組模型的總損失,即分類損失與回歸損失之和,各模型在測試集上表現(xiàn)如圖8所示。

圖8 各對比實驗組總損失下降過程Fig.8 The decreasing process of total losses in each comparison experimental group

從實驗結(jié)果中可以看出,在使用相同的圖池化方法的情況下,GAT-GSAPool 模型通過自注意力機制放大了來自重要節(jié)點的影響,因此在整體效果上優(yōu)于GCN-GSAPool 模型與SGAE-GSAPool,而在考慮線路導納信息的DGAT-GSAPool模型在表現(xiàn)略優(yōu)于前三者,證明本文所提考慮線路導納的DGAT圖卷積方法的有效性。

2.3.4 圖池化方法對比實驗

為分析圖卷積方法對圖分類器表現(xiàn)的影響,選取DGAT-MaxPool 模型、DGAT-MeanPool 模型、DGAT-TopkPool[24]模型、DGAT-SAGPool[25]模型及所提DGAT-GSAPool模型進行對比實驗。由于圖池化方法僅影響圖分類任務,對圖回歸任務不發(fā)揮作用,因此此處對比各模型在圖分類任務上的損失。各模型在訓練集上表現(xiàn)如圖9所示。

圖9 各對比實驗組圖分類損失下降過程Fig.9 The decreasing process of graph classification losses in each comparison experimental group

從實驗結(jié)果中可以看出,在使用相同的圖卷積方法的情況下,由于進行全局圖池化過程中MaxPool、TopkPool 與SAGPool 均僅保留圖中最高分節(jié)點信息,拋棄其余節(jié)點所攜帶的節(jié)點信息,因此這三者的表現(xiàn)相近,整體效果較差。在池化過程中不會產(chǎn)生信息損失的MeanPool 在執(zhí)行全局圖池化時效果由于上述三種模型。而本文所提GSAPool通過子圖節(jié)點聚合的方法避免了池化過程中的圖信息丟棄行為,且在聚合過程中通過DGAT 圖卷積方法將邊信息納入池化計算過程,因此整體效果最好,證明本文所提考慮線路導納的GSAPool圖池化方法的有效性。

3 結(jié)論

本文針對現(xiàn)有基于深度的潮流計算方法不考慮潮流不收斂問題,提出基于圖多任務學習的潮流分析模型,該模型同時具備潮流判斂及潮流分布計算功能,更符合潮流計算問題實際需求。

本文所提DGAT-GSAPool圖多任務學習模型在計算過程中結(jié)合電網(wǎng)物理特性,在不同網(wǎng)絡拓撲結(jié)構(gòu)混合測試集上潮流判斂精度達到98.81%,回歸計算精度達到98.58%,計算耗時僅約為傳統(tǒng)N-R方法的四分之一,在彌補現(xiàn)有數(shù)據(jù)驅(qū)動潮流計算方法缺陷的同時保留了其計算速度快的優(yōu)勢。

猜你喜歡
特征方法模型
一半模型
重要模型『一線三等角』
重尾非線性自回歸模型自加權(quán)M-估計的漸近分布
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
3D打印中的模型分割與打包
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
捕魚
主站蜘蛛池模板: 男人天堂亚洲天堂| 美女潮喷出白浆在线观看视频| 久久久黄色片| 精品乱码久久久久久久| 欧美性天天| 青草精品视频| AV无码无在线观看免费| 久久精品无码一区二区日韩免费| 国产xx在线观看| 永久在线精品免费视频观看| 丰满人妻被猛烈进入无码| 黄色国产在线| 亚洲高清资源| 国产精品亚洲一区二区三区在线观看| 最新亚洲人成无码网站欣赏网| 无码AV日韩一二三区| 欧美人与性动交a欧美精品| 天天综合天天综合| 国产亚洲成AⅤ人片在线观看| 伊人查蕉在线观看国产精品| 亚洲精品在线影院| 欧美激情视频在线观看一区| 久久99国产综合精品1| 午夜高清国产拍精品| 高潮爽到爆的喷水女主播视频 | 国产精品成人一区二区| 青青青国产免费线在| 久久无码高潮喷水| 午夜不卡视频| 欧美三級片黃色三級片黃色1| 色有码无码视频| 伊人成人在线| 综合色区亚洲熟妇在线| 亚洲αv毛片| 亚洲成人高清无码| 91亚洲精品第一| 日韩在线中文| 欧美日在线观看| 亚洲欧美人成电影在线观看| 日韩二区三区| 久久精品无码国产一区二区三区| 2021国产精品自产拍在线观看 | 亚洲国产精品一区二区第一页免| 欧美一区二区自偷自拍视频| 久久精品亚洲热综合一区二区| 欧美成人日韩| 久久免费看片| 99视频在线看| 国产91熟女高潮一区二区| 成人精品视频一区二区在线| jizz在线免费播放| 国产乱码精品一区二区三区中文 | 久久精品人人做人人爽电影蜜月| 国产素人在线| 欧美精品亚洲精品日韩专区| 国产精品妖精视频| 日韩精品一区二区深田咏美| 亚洲男人的天堂久久精品| 中文字幕在线欧美| 亚洲人妖在线| 日韩精品亚洲精品第一页| 91久久国产成人免费观看| 欧美国产菊爆免费观看| 亚洲人成网站色7777| 日韩不卡高清视频| 18禁影院亚洲专区| 亚洲a级在线观看| 欧美在线导航| 午夜影院a级片| 一级毛片网| 国产精品成人一区二区不卡| 中国一级特黄大片在线观看| yjizz国产在线视频网| 国产无人区一区二区三区| 亚洲欧美另类日本| 国产日产欧美精品| 狠狠色婷婷丁香综合久久韩国| 国产真实乱子伦视频播放| 99九九成人免费视频精品| 一级毛片中文字幕| 中文字幕在线播放不卡| 亚洲天堂区|