999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

不均衡樣本下的低分辨雷達(dá)目標(biāo)識(shí)別算法

2021-11-17 03:12:22朱克凡王杰貴葉文強(qiáng)
計(jì)算機(jī)仿真 2021年3期

朱克凡,王杰貴,葉文強(qiáng)

(1.國防科技大學(xué)電子對(duì)抗學(xué)院,安徽 合肥 230037;2.中國人民解放軍63768部隊(duì),陜西 西安 710000)

1 引言

雷達(dá)目標(biāo)識(shí)別(Radar Target Recognition,RTR)是雷達(dá)研究的一個(gè)重要方向。由于高分辨雷達(dá)研究成本高、周期長(zhǎng)、難以普及,現(xiàn)役雷達(dá)大部分是低分辨雷達(dá),且隨著脈沖壓縮技術(shù)的普及,傳統(tǒng)低分辨雷達(dá)也能擁有很高的徑向分辨力,能夠提取目標(biāo)一維距離像等細(xì)微特征,基于低分辨雷達(dá)的目標(biāo)識(shí)別技術(shù)研究仍然是雷達(dá)研究的一個(gè)重要熱點(diǎn)[1-3]。

傳統(tǒng)低分辨雷達(dá)目標(biāo)識(shí)別是基于特征提取的目標(biāo)識(shí)別,即首先基于回波起伏、極點(diǎn)分布以及調(diào)制譜特性等特征,對(duì)目標(biāo)進(jìn)行特征提取,然后采用貝葉斯、支持向量機(jī)(Support Vector Machine,SVM)、最近鄰分類、隱馬爾科夫模型等方法對(duì)目標(biāo)進(jìn)行分類識(shí)別。通過提取目標(biāo)特征的方法可以實(shí)現(xiàn)對(duì)目標(biāo)的分類識(shí)別,然而特征多為人工設(shè)計(jì)[4],屬于淺層特征,具有不完備性,不利于目標(biāo)識(shí)別率的進(jìn)一步提高,且特征往往只針對(duì)特定目標(biāo)設(shè)計(jì),方法的泛化性也存在不足。

自Hinton等人提出深度學(xué)習(xí)理論后,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)作為該領(lǐng)域里的重要模型,由于能夠自學(xué)習(xí)數(shù)據(jù)深層本質(zhì)特征,應(yīng)用在目標(biāo)分類識(shí)別領(lǐng)域,識(shí)別準(zhǔn)確度可以獲得較大提升,較傳統(tǒng)方法有明顯優(yōu)勢(shì)[5-8]。但基于深度學(xué)習(xí)的低分辨雷達(dá)目標(biāo)識(shí)別方法往往需要足夠多且不同類別數(shù)量均衡的訓(xùn)練樣本。在現(xiàn)代戰(zhàn)爭(zhēng)中,當(dāng)雷達(dá)目標(biāo)是先進(jìn)的非合作目標(biāo)或隱身目標(biāo)時(shí),對(duì)該目標(biāo)通常難以獲取足夠多的訓(xùn)練樣本,導(dǎo)致不同類別樣本數(shù)是極端不平衡的,目標(biāo)識(shí)別率較低。

針對(duì)樣本不均衡問題,傳統(tǒng)低分辨雷達(dá)目標(biāo)識(shí)別技術(shù)采用改進(jìn)的SVM算法,如加權(quán)SVM(weighted SVM,WSVM)[9],代價(jià)敏感SVM(Cost-sensitive SVM,CS-SVM)[10]等,基于提取的特征進(jìn)行目標(biāo)識(shí)別,但由于識(shí)別特征本身具有不完備性,識(shí)別效果欠佳。文獻(xiàn)[11-13]利用合成少數(shù)類過采樣技術(shù)(Synthetic Minority Oversampling Technique,SMOTE)擴(kuò)充少數(shù)類樣本數(shù)以平衡樣本集,提高識(shí)別率,但由于SMOTE算法使用噪聲合成新樣本,數(shù)據(jù)集擴(kuò)充效果不理想。文獻(xiàn)[14]提出了焦點(diǎn)損失函數(shù),通過大幅度降低簡(jiǎn)單樣本的權(quán)重使網(wǎng)絡(luò)訓(xùn)練側(cè)重于對(duì)困難樣本的識(shí)別,提高目標(biāo)識(shí)別率。但由于訓(xùn)練初期的網(wǎng)絡(luò)對(duì)不同類別樣本沒有識(shí)別能力,無難易之分,初期訓(xùn)練過程受同類數(shù)量多的樣本主導(dǎo),訓(xùn)練緩慢且容易陷入傾向于將目標(biāo)識(shí)別為樣本數(shù)多的類別的局部極值點(diǎn)。文獻(xiàn)[15]使用類別均衡交叉熵?fù)p失函數(shù)來自動(dòng)平衡正負(fù)樣本產(chǎn)生的損失。但由于在交叉熵?fù)p失函數(shù)中添加類別均衡權(quán)重,相當(dāng)于改變了原始數(shù)據(jù)分布,所以CNN擬合的分布較原始數(shù)據(jù)分布有偏差,識(shí)別效果提升有限。

針對(duì)以上問題,在樣本不均衡條件下,本文提出了基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達(dá)目標(biāo)識(shí)別算法,該算法首先通過CNN自動(dòng)提取數(shù)據(jù)深層本質(zhì)特征,然后使用分段損失函數(shù)計(jì)算誤差,最后將誤差反向傳播優(yōu)化權(quán)值以提高識(shí)別效果。仿真結(jié)果驗(yàn)證了本文算法的有效性和較傳統(tǒng)識(shí)別方法的優(yōu)越性。

2 基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達(dá)目標(biāo)識(shí)別算法

2.1 CNN

CNN是一種深度前饋人工神經(jīng)網(wǎng)絡(luò),包括卷積層、池化層及全連接層,結(jié)構(gòu)如圖1所示。卷積層采用不同的卷積核,在隱式地提取數(shù)據(jù)特征的同時(shí)減少了訓(xùn)練參數(shù);池化層對(duì)卷積層提取的特征進(jìn)行降采樣,進(jìn)一步減少訓(xùn)練的數(shù)據(jù)量。全連接層將特征進(jìn)行綜合,并可與Softmax分類器結(jié)合,在模式分類領(lǐng)域具有明顯優(yōu)勢(shì)。

圖1 卷積神經(jīng)網(wǎng)絡(luò)基本結(jié)構(gòu)

2.2 分段損失函數(shù)

分類問題中常用的損失函數(shù)是交叉熵?fù)p失函數(shù)

(1)

由于交叉熵?fù)p失函數(shù)平等累加每一個(gè)樣本損失,當(dāng)某一類樣本數(shù)較多時(shí),就會(huì)在誤差反向傳播過程中起主要作用,不利于網(wǎng)絡(luò)的訓(xùn)練。針對(duì)樣本不均衡問題,有兩種改進(jìn)的交叉熵?fù)p失函數(shù)。

一是類別均衡交叉熵?fù)p失函數(shù)[15]

(2)

式中:βi表示類別i的均衡權(quán)重。

二是焦點(diǎn)損失函數(shù)[14]

(3)

式中:γ是焦點(diǎn)參數(shù),γ≥0。

由于類別均衡交叉熵?fù)p失函數(shù)改變了原始樣本分布,使CNN擬合的分布較原始數(shù)據(jù)分布有偏差;而焦點(diǎn)損失函數(shù),使CNN在初期訓(xùn)練較慢且容易陷入傾向于將目標(biāo)識(shí)別為樣本數(shù)多的類別的局部極值點(diǎn)。基于此,本文提出了分段損失函數(shù),在焦點(diǎn)損失函數(shù)的基礎(chǔ)上,訓(xùn)練初期引入類別均衡交叉熵?fù)p失函數(shù),類別均衡交叉熵?fù)p失函數(shù)的加入使初期網(wǎng)絡(luò)訓(xùn)練較快,且對(duì)多類目標(biāo)都有一定的識(shí)別效果,在分段點(diǎn),結(jié)合類別均衡交叉熵?fù)p失函數(shù)訓(xùn)練后的權(quán)重優(yōu)于隨機(jī)初始化訓(xùn)練后的權(quán)重,更容易避開傾向于將目標(biāo)識(shí)別為樣本數(shù)多的類別的局部極值點(diǎn);后期只使用焦點(diǎn)損失函數(shù),專注于困難樣本,提高網(wǎng)絡(luò)的識(shí)別性能。同時(shí),為了防止在分段點(diǎn),由于損失函數(shù)的突變而過快或過多的扭曲權(quán)重,借鑒模擬退火思想,采用線性衰減的方式,引入衰減參數(shù)。

(4)

式中:αi是類別i的衰減參數(shù),βi表示類別i的權(quán)重,M表示分段的迭代次數(shù),n表示當(dāng)前的迭代次數(shù)。則分段損失函數(shù)可以表示為

(5)

2.3 基于分段損失函數(shù)的CNN低分辨雷達(dá)目標(biāo)識(shí)別算法

2.3.1 CNN結(jié)構(gòu)

CNN最初是針對(duì)圖像數(shù)據(jù)設(shè)計(jì),更適合于處理二維圖像。由于低分辨雷達(dá)目標(biāo)信號(hào)是一維時(shí)序信號(hào),無法直接將目標(biāo)信號(hào)的采樣數(shù)據(jù)輸入CNN,常見方式是對(duì)數(shù)據(jù)進(jìn)行時(shí)頻變換,將時(shí)序信號(hào)轉(zhuǎn)換為時(shí)頻圖像,文獻(xiàn)[16]提取信號(hào)全雙譜特征輸入CNN,文獻(xiàn)[17]提取信號(hào)時(shí)頻特性作為CNN的輸入。由于人工提取特征會(huì)損失數(shù)據(jù)信息,為保留目標(biāo)全部差異信息,盡可能提高目標(biāo)識(shí)別率,本文采取調(diào)整CNN結(jié)構(gòu)的方式,設(shè)計(jì)了一維CNN結(jié)構(gòu),網(wǎng)絡(luò)結(jié)構(gòu)如表1所示。

表1 一維CNN網(wǎng)絡(luò)模型結(jié)構(gòu)

2.3.2 算法步驟

1)取大量雷達(dá)目標(biāo)信號(hào)采樣數(shù)據(jù)作為訓(xùn)練樣本輸入卷積層,使用多個(gè)初始權(quán)值不同的卷積核對(duì)輸入數(shù)據(jù)進(jìn)行卷積,獲得數(shù)據(jù)的特征映射向量并輸入池化層;

2)池化層通過一維窗口,采用不重疊的步進(jìn)方式,對(duì)特征向量進(jìn)行下采樣處理,有效降低數(shù)據(jù)維度;

3)Dropout層按照設(shè)置的概率隨機(jī)地將輸入神經(jīng)元置零以緩解過擬合現(xiàn)象;

4)根據(jù)網(wǎng)絡(luò)卷積層、池化層和Dropout層數(shù)量,重復(fù)步驟1)-3),對(duì)輸入數(shù)據(jù)進(jìn)行多層卷積、池化和Dropout操作,并將第3次Dropout后的數(shù)據(jù)輸入到全連接層;

5)全連接層將輸入的多個(gè)特征整合成一維特征向量,并通過Softmax函數(shù),輸出各類識(shí)別概率組成向量,取概率向量中值最大的作為本次識(shí)別結(jié)果;

6)將當(dāng)前迭代次數(shù) 與分段迭代次數(shù)M比較,選取合適的損失函數(shù),根據(jù)預(yù)測(cè)結(jié)果和真實(shí)標(biāo)簽計(jì)算損失并反向傳遞;

7)根據(jù)預(yù)設(shè)的最大迭代次數(shù)循環(huán)步驟1)—6)將網(wǎng)絡(luò)訓(xùn)練完畢。

3 實(shí)驗(yàn)結(jié)果與分析

3.1 實(shí)驗(yàn)數(shù)據(jù)集

3.1.1 低分辨雷達(dá)目標(biāo)回波建模

現(xiàn)代雷達(dá)輻射源信號(hào)常采用脈沖壓縮信號(hào),如相位編碼信號(hào)、線性調(diào)頻(Linear Frequency Modulation,LFM)信號(hào)等,使用脈沖壓縮技術(shù)可使雷達(dá)具有很高的徑向分辨力,當(dāng)雷達(dá)目標(biāo)的尺寸大于徑向分辨力時(shí),運(yùn)動(dòng)目標(biāo)占據(jù)多個(gè)距離單元,此時(shí)可以使用多散射點(diǎn)模型來模擬目標(biāo)回波信號(hào)。

當(dāng)雷達(dá)發(fā)射信號(hào)是LFM信號(hào)時(shí),將與發(fā)射信號(hào)斜率相同的LFM參考信號(hào)作為本振信號(hào),對(duì)接收到的回波信號(hào)進(jìn)行變頻、采樣和幅度歸一化處理后,獲得的回波采樣數(shù)據(jù)為

(6)

3.1.2 數(shù)據(jù)集參數(shù)設(shè)置

實(shí)驗(yàn)數(shù)據(jù)集由python編程軟件生成,仿真參數(shù)設(shè)置:LFM信號(hào)載頻為3 GHz,調(diào)頻周期為0.1 ms,調(diào)頻帶寬為100 MHz,中頻采樣頻率為5 MHz。數(shù)值仿真對(duì)地面目標(biāo)進(jìn)行目標(biāo)識(shí)別,分別為卡車、摩托車和人。取1個(gè)調(diào)頻周期內(nèi)的采樣數(shù)據(jù)作為1個(gè)樣本,通過計(jì)算可知樣本大小為1×500,類別標(biāo)簽采用獨(dú)熱碼方式表示,維度是1×3。訓(xùn)練樣本集與測(cè)試樣本集分別獨(dú)立產(chǎn)生,其中,訓(xùn)練集卡車樣本數(shù)為30,摩托車為300,人為3000,共3330個(gè)樣本,測(cè)試集卡車樣本數(shù)為200,摩托車為200,人為200,共600個(gè)樣本。

3.2 分段損失函數(shù)參數(shù)選擇

分段損失函數(shù)中存在可變的類別均衡權(quán)重,焦點(diǎn)參數(shù)和衰減參數(shù),在本文算法中,對(duì)類別均衡權(quán)重,焦點(diǎn)參數(shù)和衰減參數(shù)做如下選擇。

3.2.1 類別均衡權(quán)重

在類別均衡交叉熵?fù)p失函數(shù)中,設(shè)置類別均衡權(quán)重的目的是平衡各類目標(biāo)數(shù)量差異對(duì)損失反向傳播的影響,所以權(quán)重值與各類別數(shù)目比例有關(guān),常見的設(shè)置方式如下[15]

βiNi=βjNj

(7)

3.2.2 焦點(diǎn)參數(shù)

焦點(diǎn)參數(shù)的作用是大幅度減少樣本集中簡(jiǎn)單樣本的權(quán)重,使CNN側(cè)重于對(duì)困難樣本的訓(xùn)練。不同γ下的焦點(diǎn)損失值如圖2所示,其中預(yù)測(cè)概率指的是CNN將目標(biāo)預(yù)測(cè)為真實(shí)標(biāo)簽的概率。

圖2 不同γ下的焦點(diǎn)損失值

文獻(xiàn)[14]將預(yù)測(cè)概率高于0.6的樣本看作簡(jiǎn)單樣本,從圖2可以看出,引入γ可以有效減少簡(jiǎn)單樣本的損失,使CNN在訓(xùn)練時(shí)側(cè)重于對(duì)困難樣本的識(shí)別,本文選擇γ=2作為焦點(diǎn)參數(shù)值。

3.2.3 衰減參數(shù)

衰減參數(shù)主要由分段的迭代次數(shù)M決定,M的不同會(huì)影響目標(biāo)識(shí)別效果,當(dāng)M=0時(shí),分段損失函數(shù)退化為焦點(diǎn)損失函數(shù)。在同樣條件下對(duì)不同的分段迭代次數(shù)M進(jìn)行對(duì)比實(shí)驗(yàn),識(shí)別效果如表2所示。

表2 不同分段迭代次數(shù)M下的識(shí)別效果

通過對(duì)比實(shí)驗(yàn),本文選擇M=100作為分段的迭代次數(shù)。

3.3 不同損失函數(shù)對(duì)識(shí)別效果的影響

為了驗(yàn)證本文所提分段損失函數(shù)的有效性,對(duì)使用不同損失函數(shù)的CNN進(jìn)行識(shí)別實(shí)驗(yàn)。用添加高斯白噪聲的方法對(duì)數(shù)據(jù)進(jìn)行加噪處理,實(shí)驗(yàn)采用SNR=-4dB的仿真目標(biāo)回波采樣數(shù)據(jù)作為網(wǎng)絡(luò)輸入,使用設(shè)計(jì)的一維CNN結(jié)構(gòu)作為識(shí)別網(wǎng)絡(luò)。圖3是使用四種損失函數(shù)的CNN在不同迭代次數(shù)下的測(cè)試集識(shí)別率。

圖3 使用四種損失函數(shù)的CNN識(shí)別率

從圖3可以看出,分段損失函數(shù)結(jié)合了類別均衡交叉熵?fù)p失函數(shù)和焦點(diǎn)損失函數(shù)的優(yōu)點(diǎn),初期訓(xùn)練速度較快,獲得較好的訓(xùn)練權(quán)值,后期挖掘困難樣本,較焦點(diǎn)損失函數(shù)和類別均衡損失函數(shù)識(shí)別率有所提高,四種損失函數(shù)的平均識(shí)別率如表3所示。

表3 四種損失函數(shù)的平均識(shí)別率

為了更加直觀的展示不同損失函數(shù)的識(shí)別效果,各損失函數(shù)的混淆矩陣如圖4所示,圖5~圖8是接收者操作特征曲線(receiver operating characteristic curve,ROC)曲線和ROC曲線下方的面積(Area under the Curve of ROC,AUC)。其中混淆矩陣中每一列表示目標(biāo)所屬的真實(shí)類別,每一行表示一維CNN的識(shí)別結(jié)果,標(biāo)簽從上至下,從左至右依次為卡車,摩托車和人。

圖4 混淆矩陣

圖5 使用交叉熵?fù)p失函數(shù)的ROC曲線和AUC值

圖6 使用類別均衡交叉熵?fù)p失函數(shù)的ROC曲線和AUC值

圖7 使用焦點(diǎn)損失函數(shù)的ROC曲線和AUC值

圖8 使用分段損失函數(shù)的ROC曲線和AUC值

從圖4的混淆矩陣和圖5~圖8的ROC曲線和AUC值可以看出,基于交叉熵?fù)p失函數(shù)的CNN識(shí)別算法對(duì)卡車和摩托車的識(shí)別效果較差,通過使用類別均衡交叉熵?fù)p失函數(shù)或焦點(diǎn)損失函數(shù),可以提高算法對(duì)卡車的識(shí)別效果,但仍然無法有效識(shí)別摩托車,且焦點(diǎn)損失函數(shù)更傾向于將分類錯(cuò)誤的摩托車樣本識(shí)別為樣本數(shù)較多的人,而基于分段損失函數(shù)的CNN識(shí)別算法能夠有效識(shí)別三類目標(biāo),且在識(shí)別性能方面明顯優(yōu)于其它算法,充分說明了本文所提分段損失函數(shù)的有效性。

3.4 基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達(dá)目標(biāo)識(shí)別算法的識(shí)別效果

為了進(jìn)一步說明本文所提基于分段損失函數(shù)的CNN低分辨雷達(dá)目標(biāo)識(shí)別算法的有效性和較傳統(tǒng)方法的優(yōu)越性,將本文方法與其它五種方法進(jìn)行比較,方法一是使用文獻(xiàn)[9]所提WSVM算法的傳統(tǒng)識(shí)別方法,其中WSVM算法基于目標(biāo)的雷達(dá)散射截面積和一維距離像的中心矩特征進(jìn)行識(shí)別,方法二是使用交叉熵?fù)p失函數(shù)的CNN低分辨雷達(dá)目標(biāo)識(shí)別算法,方法三是使用類別均衡交叉熵?fù)p失函數(shù)的CNN識(shí)別算法,方法四是使用焦點(diǎn)損失函數(shù)的CNN識(shí)別算法,方法五是文獻(xiàn)[12]所提基于SMOTE和CNN的識(shí)別算法。同時(shí)為了驗(yàn)證本文方法的魯棒性,通過添加高斯白噪聲的方法在不同信噪比條件下進(jìn)行識(shí)別實(shí)驗(yàn),不同方法的識(shí)別效果如表4所示。

表4 不同方法的識(shí)別效果

從表4可以看出,本文方法在不同信噪比條件下的識(shí)別率最高,較傳統(tǒng)基于WSVM的識(shí)別算法識(shí)別率至少提高了10.38%,較基于交叉熵?fù)p失函數(shù)的CNN識(shí)別算法識(shí)別率至少提高了6.37%。

4 結(jié)論

針對(duì)樣本不均衡條件下,傳統(tǒng)低分辨雷達(dá)目標(biāo)識(shí)別方法識(shí)別率較低的問題,本文提出了基于分段損失函數(shù)的卷積神經(jīng)網(wǎng)絡(luò)低分辨雷達(dá)目標(biāo)識(shí)別算法。首先通過CNN獲取數(shù)據(jù)深層本質(zhì)特征,然后使用分段損失函數(shù),使CNN在初期能夠更快訓(xùn)練,獲得更好的權(quán)值,避開傾向于將目標(biāo)識(shí)別為樣本數(shù)多的類別的局部極值點(diǎn),在后期則側(cè)重于對(duì)困難樣本的訓(xùn)練,最后將損失反向傳播,提高網(wǎng)絡(luò)識(shí)別性能。仿真結(jié)果表明本文所提算法較傳統(tǒng)識(shí)別方法有明顯優(yōu)勢(shì),使用分段損失函數(shù)能夠有效提高CNN在樣本不均衡條件下對(duì)低分辨雷達(dá)目標(biāo)的識(shí)別效果。

主站蜘蛛池模板: 成人午夜天| 久久国产香蕉| 黄色免费在线网址| 麻豆国产在线观看一区二区 | 玖玖精品在线| 久久久噜噜噜| 国产成人精品免费av| 亚洲福利视频一区二区| P尤物久久99国产综合精品| 制服丝袜无码每日更新| 天天综合亚洲| 国产v精品成人免费视频71pao| 亚洲自拍另类| 国产精品尤物在线| 久久久精品久久久久三级| 广东一级毛片| 毛片一区二区在线看| 国产免费a级片| 亚洲精品大秀视频| 日本精品一在线观看视频| 自拍亚洲欧美精品| 中文字幕无码电影| 国内视频精品| 国产成人高清在线精品| 亚洲妓女综合网995久久| 成人第一页| a欧美在线| 一级爆乳无码av| 亚洲最猛黑人xxxx黑人猛交| 天天综合色天天综合网| 欧美日韩一区二区三区四区在线观看| 日本国产一区在线观看| 九九视频在线免费观看| 免费AV在线播放观看18禁强制| 日韩福利在线观看| 青青草综合网| 久久久久亚洲AV成人人电影软件 | 亚洲av综合网| 人人妻人人澡人人爽欧美一区| 欧美日韩国产精品va| 精品久久久久成人码免费动漫| 成人午夜久久| 久久综合久久鬼| 日韩精品无码免费一区二区三区| 黄片一区二区三区| 天天干天天色综合网| 免费看一级毛片波多结衣| 91精品国产自产在线观看| 潮喷在线无码白浆| 日本免费高清一区| 欧美激情视频一区| 国产中文一区二区苍井空| 午夜影院a级片| 动漫精品中文字幕无码| 久久国产精品夜色| 久久人搡人人玩人妻精品| 久久久久无码精品| 亚洲国产第一区二区香蕉| 多人乱p欧美在线观看| a色毛片免费视频| 成人午夜网址| 国产精品.com| 国产成人综合日韩精品无码不卡| 精品自窥自偷在线看| 91麻豆国产视频| 国产男女免费完整版视频| 久久午夜夜伦鲁鲁片无码免费| 国产黄色片在线看| 免费在线一区| 欧美午夜理伦三级在线观看| 久久久受www免费人成| 最新国产高清在线| 国产肉感大码AV无码| 无码中字出轨中文人妻中文中| 国产成人一区在线播放| 制服丝袜在线视频香蕉| 一级看片免费视频| 国产人妖视频一区在线观看| 亚洲最大综合网| 99久久99这里只有免费的精品 | 欧美日韩v| 国产日韩丝袜一二三区|