999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于GAN的人體姿態(tài)生成研究綜述

2022-10-18 01:58:01金海峰武昭盟
電腦知識與技術(shù) 2022年25期

金海峰 武昭盟

摘要:人體姿態(tài)生成是指不改變源人體外觀,生成參考人體姿態(tài)的技術(shù)。由于姿勢轉(zhuǎn)移過程中的身體變形和不同視角帶來的不同外觀, 其生成過程較為復雜。該技術(shù)可歸納為基于圖像和基于視頻兩種途徑,對于前者以人體建模的方式為依據(jù),將其分為基于姿態(tài)關(guān)鍵點的人體姿態(tài)生成、基于外觀流的人體姿態(tài)生成以及基于網(wǎng)格的人體姿態(tài)生成,并介紹了其中的典型模型,最后指出人體姿態(tài)生成中的問題,未來在模型優(yōu)化、數(shù)據(jù)集構(gòu)建等方面還需要更深入的研究。

關(guān)鍵詞:人體姿態(tài)生成;關(guān)鍵點提取; 外觀流; 圖像生成; 視頻生成

中圖分類號:TP391.41? ? ? 文獻標識碼:A

文章編號:1009-3044(2022)25-0001-04

開放科學(資源服務(wù))標識碼(OSID):

1? 引言

給定一個源人體圖像和一個參考人體圖像,人體姿態(tài)生成是指利用給定的參考人體的姿態(tài)圖來生成具有參考人體姿態(tài)、但保持源人體外觀的技術(shù)。它屬于計算機視覺生成領(lǐng)域,但因其姿態(tài)生成空間變換的復雜性,比一般的生成任務(wù)更具有挑戰(zhàn)性。

人體姿態(tài)生成的研究比較新穎,Ma等人[1]在2017年提出了最早的人體姿態(tài)生成網(wǎng)絡(luò)PG2,能夠由源人物圖像和參考姿勢來生成具有參考姿勢的源人物圖像。人體姿態(tài)生成任務(wù)生成圖像時需要推斷出未觀察到的身體部位,以便生成目標姿勢。具有挑戰(zhàn)性的是不同姿勢的圖像在不同視角下可能有很大的不同,這就不可避免地要求生成器捕捉圖像分布所具有的巨大變化。這項任務(wù)對計算機視覺來說具有廣泛的應(yīng)用價值,比如視頻合成和視頻編輯,以及在沒有足夠的同人圖像的情況下,對人的重識別[2]等問題進行數(shù)據(jù)擴充。

目前,人體姿態(tài)生成任務(wù)可以歸納為基于圖像的姿態(tài)生成和基于視頻的姿態(tài)生成。從這兩方面出發(fā),分析和總結(jié)了其中典型的算法和模型,按照不同的人體建模方式,將各類模型歸類到基于姿態(tài)關(guān)鍵點的人體姿態(tài)生成、基于外觀流的人體姿態(tài)生成和基于網(wǎng)格的人體姿態(tài)生成。在每個類別中,首先對模型進行了基本描述和概括,然后對該方法做了總結(jié)。此外,還介紹了人體姿態(tài)生成任務(wù)的常用數(shù)據(jù)集和評價指標,列舉了部分典型模型的性能表現(xiàn),最后對人體姿態(tài)生成面臨的問題進行了說明以及對未來的研究方向做了展望。

2? 基于圖像的人體姿態(tài)生成

圖像生成的目標是找到與真實圖像最相似的分布,目前主流的生成模型是基于深度學習的變分自動編碼器(Variational Autoencoder,VAE)[3]和生成式對抗網(wǎng)絡(luò)(Generative Adversarial Network,GAN)[4]。由于GAN 網(wǎng)絡(luò)在圖像生成方面的優(yōu)秀表現(xiàn),近幾年基于GAN模型的生成任務(wù)更為流行。最早的對抗生成網(wǎng)絡(luò)由Goodfellow [3]提出,該網(wǎng)絡(luò)由一個生成器G和一個判別器D組成,生成器負責讓生成的圖像更加真實,判別器負責判斷出圖像的真假,生成器和判別器進行對抗訓練,并最終期望達到一個納什均衡:生成器生成的圖像越來越真實,而判別器越來越難判斷出圖像的真假,GAN的原理如圖1所示。

此后各種優(yōu)化的GAN 模型不斷涌現(xiàn),生成圖像的質(zhì)量也越來越高,但簡單GAN模型訓練不穩(wěn)定,多樣化受限。為此,Mirza提出了條件GAN[5],在生成器和判別器中引入條件變量,以指導符合特定要求的數(shù)據(jù)生成。在人體姿態(tài)生成任務(wù)中,參考人體姿態(tài)作為條件變量或語義標簽,指引人體姿態(tài)的生成,而人體姿態(tài)使用人體姿態(tài)估計的方法獲取。一般來說,人體姿態(tài)估計將人體模型分為三種[6]:基于骨骼的模型,基于輪廓的模型和基于體積的模型。(1)基于骨骼的模型:將人體拓撲表示為一組關(guān)鍵點位置及對應(yīng)的肢體方向。這種模型由于操作簡單,被大量用于2D和3D人體姿態(tài)估計中;(2)基于輪廓的模型:將肢體和軀干用矩形或輪廓邊界表示;(3)基于體積的模型:一般以3D掃描的網(wǎng)格形式表示。

對于現(xiàn)有的人體姿態(tài)生成任務(wù),以人體建模的方式為依據(jù),可將人體姿態(tài)生成分為三種類型:①基于姿態(tài)關(guān)鍵點的人體姿態(tài)生成;②基于外觀流的人體姿態(tài)生成;③基于網(wǎng)格的人體姿態(tài)生成。

2.1 基于姿態(tài)關(guān)鍵點的人體姿態(tài)生成

基于姿態(tài)關(guān)鍵點的人體姿態(tài)生成是最典型的姿態(tài)生成網(wǎng)絡(luò)。一般來說,首先使用姿態(tài)估計方法來獲得人體姿勢,然后使用生成對抗網(wǎng)絡(luò)來完善和細化結(jié)果。

如圖2中的PG2框架,第一階段,生成器是類似U-Net[7]的結(jié)構(gòu),輸入是原始條件圖像和目標姿勢,使用了18個熱圖來編碼姿勢,輸出是一個具有目標姿勢但粗糙的生成結(jié)果。第二階段,生成器采用DCGAN[8]的變體進行對抗性訓練來完善第一階段的結(jié)果,補充細節(jié)信息。對于判別器,PG2將第二階段的輸出與原始條件圖像進行配對,讓判別器學習判斷真實的配對和虛假的配對。之后,Ma等人[9]進一步改進了他們以前的工作,將輸入圖像的前景、背景和姿態(tài)分解并編碼為嵌入特征,然后解碼為圖像。雖然生成更加可控,但是降低了生成圖像的質(zhì)量。

面對姿態(tài)生成中存在的幾何可變性和空間位移,Dong等人提出了Soft-Gated Warping-GAN[10],利用一系列的仿射變換來解決原始條件圖像和目標圖像之間的錯位問題,并采用了層次結(jié)構(gòu)的兩階段判別器來提高合成圖像的質(zhì)量。雖然Soft-Gated Warping-GAN能夠產(chǎn)生比較真實的外觀,生成不同姿勢的高質(zhì)量人物圖像。但在處理不同姿勢之間的錯位時,必須有效地計算仿射變換,這使得該模型比較脆弱,應(yīng)用于不常見的姿勢時表現(xiàn)不佳。

Men等人提出了屬性分解GAN[11],將人的屬性作為獨立編碼嵌入到隱空間中,并通過顯式風格表示中的混合和插值操作,實現(xiàn)對屬性的靈活和連續(xù)控制,實現(xiàn)了可控的人體姿態(tài)生成。Zhu等人[12]提出了一種級聯(lián)的姿態(tài)-注意力轉(zhuǎn)換模塊PATN,生成器的核心是一連串的姿勢-注意力轉(zhuǎn)移塊,每個姿勢-注意力轉(zhuǎn)移塊結(jié)構(gòu)相同,輸入為圖像和姿勢的表示,通過模塊當中的注意力機制,能夠推斷出人體姿態(tài)中的感興趣區(qū)域,將姿勢的變化限制在局部的小范圍,形成漸進式的姿勢轉(zhuǎn)移方案,減少了計算量。

2.2 基于外觀流的人體姿態(tài)生成

光流[13]能夠提供圖像像素間的對應(yīng)關(guān)系,常用于動作識別[14]。外觀流[15]則能提供不同視角的圖像間的對應(yīng)關(guān)系,鑒于此,Li等人[16]提出了基于外觀流的任意姿勢轉(zhuǎn)換模型。

如圖3所示,該網(wǎng)絡(luò)首先編碼源人物圖像和目標姿勢,然后訓練一個外觀流生成模塊,該模塊直接從一對二維姿勢回歸到相應(yīng)的外觀流,進一步生成一個可見性圖,可見性圖可以在正確位置合成像素,以指導編碼后的圖像特征,最后這些圖像特征聯(lián)合生成目標圖像。這是一種新的人體姿勢轉(zhuǎn)移的方法,整合了來自二維表征的關(guān)于三維幾何的隱性推理。通過估計密集的三維外觀流,能更好地指導姿勢之間的像素轉(zhuǎn)移,但也增加了估計流場的難度。

Ren等人[17]提出了一個全局流動的局部注意框架。首先提取全局相關(guān)性并生成流場,之后根據(jù)獲得的流場,使用局部注意對目標人物進行源紋理采樣。該方法使模型的每個輸出位置只與源圖像的局部特征有關(guān),降低了流場估計任務(wù)的難度。

2.3? 基于網(wǎng)格的人體姿態(tài)生成

針對人體姿態(tài)合成方法只能表達位置信息,不能描述個人的個性化形狀和建立肢體旋轉(zhuǎn)模型的問題。Liu等人[18]提出了Liquid Warping GAN,將人體分解為姿勢和形狀。它輸出三維網(wǎng)格,而不再是關(guān)節(jié)或身體布局。

如圖4所示,Warping Block(LWB)的第一個身體網(wǎng)格恢復模塊使用HMR[19]作為三維姿勢和形狀估計器,估計源圖像和參考圖像的三維網(wǎng)格,并呈現(xiàn)它們的對應(yīng)圖。第二個流組成模塊根據(jù)兩個對應(yīng)圖和它們在圖像空間中的投影網(wǎng)格計算出變換流,將源圖像分解為正面圖像和被遮蔽的背景,接著流組成模塊根據(jù)變換流進行翹曲,產(chǎn)生翹曲的圖像。最后一個GAN模塊中,生成器由三個流組成,用來生成背景圖像,重建源圖像,以及合成參考條件下的目標圖像。該方法處理不同視角的人物比較靈活,錯位較少,但變換過程更復雜。

3 基于視頻的人體姿態(tài)生成

基于視頻的人體姿態(tài)生成是指給定源主體一系列動作的視頻,所對應(yīng)的目標主體能夠執(zhí)行與原主體完全相同的動作。2018 年,Nvidia[20 ]基于pix2pixHD[21],提出了高分辨率視頻生成模型vid2vid。vid2vid可以用于合成高分辨率的舞蹈視頻,將舞蹈動作遷移到新的舞者身上。

如圖5所示,vid2vid使用了兩階段的生成器,第一階段的生成器用來生成全局的低分辨率視頻,輸入是前L幀和當前幀的語義映射序列以及前L幀的生成圖像序列,輸出是原始圖像、光流和權(quán)重掩碼;為了處理視頻中的冗余信息,vid2vid還引入了光流來約束相鄰兩幀之間的運動像素信息,并得到當前幀的預測值。第二階段的生成器輸入是原分辨率的語義映射序列及生成圖像,進行卷積之后,將提取的特征圖與第一階段的輸出相加,送入第二階段生成器的后半部分,生成局部的高分辨率視頻。vid2vid的判別器則用來計算圖像是否真實的得分。

vid2vid模型泛化能力比較差,不能將姿勢推廣到非訓練集中的人。于是Nvidia又提出了Few-shot vid2vid[22],F(xiàn)ew-shot vid2vid新增了一個權(quán)重生成網(wǎng)絡(luò),用來提取若干實例圖的特征并映射成一維權(quán)重,之后將該權(quán)重加入訓練好的生成模型中,解決了模型泛化的問題,但對于姿態(tài)生成質(zhì)量并未提升。

2019 年,Chan 等人[23]提出的EDN模型。EDN模型使用預訓練好的姿態(tài)估計器來創(chuàng)建姿勢圖,并將獲得的姿勢作為幀與幀之間轉(zhuǎn)換的中間表示。之后考慮到源人體和目標人體幀內(nèi)位置和大小的差異,在姿勢圖和目標人物圖之間計算相應(yīng)的比例和平移關(guān)系。最后進行對抗性訓練,學習從姿態(tài)圖到目標人物圖像的映射。2020 年Yang 等人[24]提出視頻運動重定位模型TransMoMo,能夠?qū)⒃匆曨l中人的運動真實地轉(zhuǎn)移到另一個目標人的視頻中。TransMoMo主要利用運動、結(jié)構(gòu)和視角三個正交因素的不變性進行訓練。雖然該網(wǎng)絡(luò)能夠生成實際生活中的某些復雜動作,但是網(wǎng)絡(luò)的損失函數(shù)近乎十項,使得網(wǎng)絡(luò)整體比較難訓練。

4? 相關(guān)數(shù)據(jù)集及評價方法

人體姿態(tài)生成的評價指標需要對生成的質(zhì)量進行評價,在驗證數(shù)據(jù)集的構(gòu)建方面,不僅要考慮圖像和視頻的類型,而且要兼顧圖像與視頻的復雜度。目前,針對基于圖像的人體姿態(tài)生成任務(wù),主要使用的是DeepFashion[25]和Market-1501數(shù)據(jù)集[26],針對基于視頻的人體姿態(tài)生成任務(wù),EDN和Vid2vid使用的是網(wǎng)上收集的視頻,TransMoMo在合成的Mixamo數(shù)據(jù)集[27]上進行訓練。

一般來說,人體姿態(tài)生成使用結(jié)構(gòu)相似度(SSIM)[28]、初始得分(IS)[29]和Fréchet Inception Distance(FID)[30]方法,對生成的圖像和視頻進行考量,在基于視頻的人體姿態(tài)生成任務(wù)中,還使用了人類主觀測試來評價生成視頻的效果。本節(jié)主要介紹目前常用的數(shù)據(jù)集、相關(guān)評價方法,總結(jié)了部分模型性能。

4.1 人體姿態(tài)生成常用評價方法及指標

由于人體姿態(tài)生成與圖像生成流程類似,其評價也多是使用圖像生成的方法,目前使用最多的是結(jié)構(gòu)相似度(SSIM)和初始得分(IS)。SSIM方法是一種衡量兩幅圖像相似度的指標,主要比較亮度、對比度和結(jié)構(gòu)這三個方面。用[a]和[b]分別表示兩幅圖像,SSIM 的計算方法為:

[SSIM(a,b)=[l(a,b)]α[c(a,b)]β[s(a,b)]γ]? ?(1)

α>0,β>0,γ>0,其中,[l(a,b)]表示亮度比較,[c(a,b)]表示對比度比較,[s(a,b)]表示結(jié)構(gòu)比較,SSIM值的范圍在[0,1]之間,值越大表示圖像越相似。

IS用來衡量GAN網(wǎng)絡(luò)的兩個指標:生成圖片的質(zhì)量和多樣性。IS的計算公式為:

[IS(G)=exp(Ex~pgKL(p(y|x)||p(y)))]? (2)

其中,[x~pg]表示[x]從生成數(shù)據(jù)分布[pg]中采樣而來,KL表示計算KL散度,[p(y|x)]是條件類分布,[p(y)]表示生成圖像在所有類別上的邊緣分布。IS值越高,則說明生成圖像的分布越接近真實分布。

有些模型也會用到FID來作為評價指標,F(xiàn)ID是一個用于隱性生成模型的指標,關(guān)聯(lián)了生成樣本的視覺質(zhì)量。FID計算了生成圖像的特征向量與真實圖像的特征向量之間的距離,該距離越近,表明生成模型的效果越理想。

4.2 人體姿態(tài)生成數(shù)據(jù)集

在基于圖像的人體姿態(tài)生成領(lǐng)域,目前常用流行公開數(shù)據(jù)集是DeepFashion和Market-1501,DeepFashion 數(shù)據(jù)集是香港中文大學開放的一個數(shù)據(jù)集,包括52,712張店內(nèi)服裝圖像和200,000個交叉姿勢/比例對。所有圖像分辨率為256×256,背景較為單一。在該數(shù)據(jù)集的驗證集上, 當前部分主流模型的性能表現(xiàn)如表1所示。

Market-1501 的訓練集包含了 751 個人的12,936 張圖像;測試集包含了750 個人的19,732圖像。圖像的分辨率為128×64,背景多樣。該數(shù)據(jù)集普遍被用于行人重識別等任務(wù)中。該數(shù)據(jù)集的驗證集上, 當前部分主流模型的性能表現(xiàn)如表2所示。

5 總結(jié)與展望

姿態(tài)生成任務(wù)屬于圖像及視頻生成的一個子領(lǐng)域,使用人體姿態(tài)估計的方法進行人類姿態(tài)的處理,目前人們使用生成對抗網(wǎng)絡(luò)的技術(shù),利用關(guān)鍵點提取、外觀流檢測等方法,設(shè)計出一系列效果顯著的模型,在視頻處理中,使用視頻到視頻的合成,已經(jīng)能生成流暢的視頻流。人體姿態(tài)生成技術(shù)是計算機視覺中一個很有意義的研究方向,在時尚造型設(shè)計以及短視頻生成中具有廣闊的發(fā)展前景。此外,該任務(wù)還能夠在電影行業(yè)中為演員提供比替身更好的方式,降低人員受傷的幾率,也可以在人體形態(tài)學的任務(wù),比如行為識別、姿態(tài)追蹤中實現(xiàn)大批量高質(zhì)量數(shù)據(jù)集的擴充,便于學術(shù)界人員的研究。

本文回顧了人體姿態(tài)生成任務(wù)的出現(xiàn)與發(fā)展過程,分析了其研究現(xiàn)狀,對主要的模型進行了梳理,并總結(jié)了各模型的優(yōu)越性及局限。未來有以下幾個方面值得探索:首先,成功的人體姿勢生成需要對人體姿勢和外觀進行良好的表示或拆分,需要有推斷不可見部分的能力,還要能夠較好保留人物的高頻細節(jié)。其次,現(xiàn)有的數(shù)據(jù)集太少,尤其在視頻的生成領(lǐng)域,沒有針對姿態(tài)生成的標準參考數(shù)據(jù)集。最后,現(xiàn)有模型往往在生成姿態(tài)變化較大的視頻動作和將動作同時轉(zhuǎn)移到多個人時效果變差。未來結(jié)合多模態(tài)融合技術(shù),人體姿態(tài)生成領(lǐng)域會有更多的研究空間。

參考文獻:

[1] Ma L Q,Jia X,Sun Q R,et al.Pose guided person image generation[EB/OL].2017:arXiv:1705.09368.https://arxiv.org/abs/1705. 09368

[2] Gheissari N,Sebastian T B,Tu P H,et al.Person reidentification using spatiotemporal appearance[J].Proceedings of the IEEE Computer Society Conference on Computer Vision and Pattern Recognition,2006(2):1528-1535.

[3] Kingma D P,Welling M.Auto-encoding variational Bayes[EB/OL].2013:arXiv:1312.6114.https://arxiv.org/abs/1312.6114.

[4] Goodfellow I J , Pouget-Abadie J , Mirza M , et al. Generative Adversarial Networks[J]. Advances in Neural Information Processing Systems, 2014(3):2672-2680.

[5] Mirza M,Osindero S.Conditional generative adversarial nets[EB/OL].2014:arXiv:1411.1784.https://arxiv.org/abs/1411.1784.

[6] Chen Y C,Tian Y L,He M Y.Monocular human pose estimation:a survey of deep learning-based methods[J].Computer Vision and Image Understanding,2020,192(C):102897.

[7] Ronneberger O,F(xiàn)ischer P,Brox T.U-net:convolutional networks for biomedical image segmentation[EB/OL].2015:arXiv:1505. 04597.https://arxiv.org/abs/1505.04597.

[8] Radford A,Metz L,Chintala S.Unsupervised representation learning with deep convolutional generative adversarial networks[EB/OL].2015:arXiv:1511.06434.https://arxiv.org/abs/1511.06434.

[9] Ma L Q,Sun Q R,Georgoulis S,et al.Disentangled person image generation[EB/OL].2017:arXiv:1712.02621.https://arxiv.org/abs/1712.02621.

[10] Dong H Y,Liang X D,Gong K,et al.Soft-gated warping-GAN for pose-guided person image synthesis[EB/OL].2018:arXiv:1810.11610.https://arxiv.org/abs/1810.11610.

[11] Men Y F,Mao Y M,Jiang Y N,et al.Controllable person image synthesis with attribute-decomposed GAN[EB/OL].2020:arXiv:2003.12267.https://arxiv.org/abs/2003.12267.

[12] Zhu Z,Huang T T,Shi B G,et al.Progressive pose attention transfer for person image generation[EB/OL].2019:arXiv:1904.03349.https://arxiv.org/abs/1904.03349.

[13] Horn B K P,Schunck B G.Determining optical flow[J].Computer Vision,1981:185-203.

[14] Simonyan K,Zisserman A.Two-stream convolutional networks for action recognition in videos[EB/OL].2014:arXiv:1406.2199.https://arxiv.org/abs/1406.2199.

[15] He K M,Zhang X Y,Ren S Q,et al.Identity mappings in deep residual networks[EB/OL].2016:arXiv:1603.05027.https://arxiv.org/abs/1603.05027.

(下轉(zhuǎn)第8頁)

(上接第4頁)

[16] Li Y, Huang C, Loy C C. Dense intrinsic appearance flow for human pose transfer[C]//Proceedings of the IEEE/CVF Conference on Computer Vision and Pattern Recognition,2019: 3693-3702.

[17] Ren Y R,Yu X M,Chen J M,et al.Deep image spatial transformation for person image generation[EB/OL].2020:arXiv:2003.00696.https://arxiv.org/abs/2003.00696.

[18] Liu W,Piao Z X,Min J,et al.Liquid warping GAN:a unified framework for human motion imitation,appearance transfer and novel view synthesis[EB/OL].2019:arXiv:1909.12224.https://arxiv.org/abs/1909.12224.

[19] Kato H, Ushiku Y, Harada T. Neural 3d mesh renderer[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2018: 3907-3916.

[20] Wang T C,Liu M Y,Zhu J Y,et al.Video-to-video synthesis[EB/OL].2018:arXiv:1808.06601.https://arxiv.org/abs/1808. 06601.

[21] Wang T C, Liu M Y, Zhu J Y, et al. High-resolution image synthesis and semantic manipulation with conditional gans[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2018: 8798-8807.

[22] Wang T C,Liu M Y,Tao A,et al.Few-shot video-to-video synthesis[EB/OL].2019:arXiv:1910.12713.https://arxiv.org/abs/1910.12713.

[23] Chan C,Ginosar S,Zhou T H,et al.Everybody dance now[EB/OL].2018:arXiv:1808.07371.https://arxiv.org/abs/1808.07371.

[24] Yang Z Q,Zhu W T,Wu W,et al.TransMoMo:invariance-driven unsupervised video motion retargeting[EB/OL].2020:arXiv:2003.14401.https://arxiv.org/abs/2003.14401.

[25] Liu Z, Luo P, Qiu S, et al. Deepfashion: Powering robust clothes recognition and retrieval with rich annotations[C]//Proceedings of the IEEE conference on computer vision and pattern recognition,2016: 1096-1104.

[26] Zheng L,Shen L Y,Tian L,et al.Scalable person re-identification:a benchmark[J].Proceedings of the IEEE International Conference on Computer Vision,2015,2015 International Conference on Computer Vision,ICCV 2015:1116-1124.

[27] Adobe.Mixamo[EB/OL].(2020-01-02)[2020-01-12]. https://www.mixamo.com.

[28] Wang Z,Bovik A C,Sheikh H R,et al.Image quality assessment:from error visibility to structural similarity[J].IEEE Transactions on Image Processing,2004,13(4):600-612.

[29] Salimans T,Goodfellow I,Zaremba W,et al.Improved techniques for training GANs[EB/OL].2016:arXiv:1606.03498.https://arxiv.org/abs/1606.03498.

[30] Heusel M,Ramsauer H,Unterthiner T,et al.GANs trained by a two time-scale update rule converge to a local Nash equilibrium[EB/OL].2017:arXiv:1706.08500.https://arxiv.org/abs/1706. 08500.

【通聯(lián)編輯:唐一東】

主站蜘蛛池模板: 欧美天堂在线| 国产黄色免费看| 日韩精品久久久久久久电影蜜臀| jizz亚洲高清在线观看| 免费播放毛片| 国产精品无码AV片在线观看播放| 国产成人一区二区| 尤物视频一区| 18禁黄无遮挡免费动漫网站| 一本大道视频精品人妻| 国产屁屁影院| 综合天天色| 欧美精品aⅴ在线视频| 久久婷婷六月| 风韵丰满熟妇啪啪区老熟熟女| 国产精品99r8在线观看| 乱人伦中文视频在线观看免费| 国产经典在线观看一区| 亚洲精品少妇熟女| 欧美一级高清免费a| 欧美成人日韩| 直接黄91麻豆网站| 欧美一级夜夜爽www| 蜜桃视频一区| 亚洲高清无码久久久| yjizz国产在线视频网| 国产老女人精品免费视频| 午夜视频日本| 高清精品美女在线播放| 国产无码制服丝袜| 国产免费黄| 国产成人成人一区二区| 制服丝袜无码每日更新| 欧美国产在线一区| 成人av专区精品无码国产 | 国产麻豆va精品视频| 国产精品亚洲天堂| 91福利国产成人精品导航| 99re这里只有国产中文精品国产精品 | 亚洲欧洲美色一区二区三区| 一区二区三区毛片无码| 狂欢视频在线观看不卡| 亚洲人精品亚洲人成在线| 日韩视频精品在线| 狠狠综合久久| 无码中文字幕精品推荐| 国产午夜无码专区喷水| 亚洲an第二区国产精品| 亚洲成人在线网| 国内熟女少妇一线天| 欧美特黄一级大黄录像| 女人一级毛片| 久精品色妇丰满人妻| 亚洲无码高清一区| 亚洲日韩久久综合中文字幕| 大香伊人久久| 国产精品99r8在线观看| igao国产精品| 国产精品99r8在线观看| 91免费国产在线观看尤物| 精品欧美视频| 国产在线观看高清不卡| 2021国产精品自产拍在线观看| 高清欧美性猛交XXXX黑人猛交| 亚洲黄色网站视频| 国产在线第二页| 高清色本在线www| 国产超薄肉色丝袜网站| 久久久精品无码一区二区三区| 国产成人av一区二区三区| 热99re99首页精品亚洲五月天| 成年女人18毛片毛片免费| 中文字幕第1页在线播| 亚洲色婷婷一区二区| 亚洲伊人久久精品影院| 国产福利2021最新在线观看| 国产主播福利在线观看| 国产视频一二三区| 亚洲天天更新| 亚洲成人www| 亚洲第一成网站| 国产视频入口|