999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學(xué)習(xí)在人臉妝容推薦系統(tǒng)中的應(yīng)用研究

2020-01-07 08:07:43黃萍朱惠娟左志遠(yuǎn)
軟件工程 2020年12期
關(guān)鍵詞:深度學(xué)習(xí)

黃萍 朱惠娟 左志遠(yuǎn)

摘 ?要:本文設(shè)計(jì)了一款基于CNN、Alexnet等網(wǎng)絡(luò)模型的妝容推薦系統(tǒng),系統(tǒng)能根據(jù)臉部屬性差異來推薦適宜的化妝方法,滿足用戶的個(gè)性化化妝需求。從技術(shù)實(shí)踐的角度上來說,完成了從數(shù)據(jù)收集、模型訓(xùn)練到應(yīng)用開發(fā)部署的開發(fā)流程。在工程實(shí)現(xiàn)上引入當(dāng)今比較主流云架構(gòu)方案,采用較為先進(jìn)的架構(gòu),使得應(yīng)用的性能和各方面的擴(kuò)展延伸上都得到了增強(qiáng)。

關(guān)鍵詞:妝容推薦;深度學(xué)習(xí);人臉特征提取

中圖分類號:TP39 ? ? 文獻(xiàn)標(biāo)識碼:A

Abstract: This paper proposes a makeup recommendation system based on network models such as CNN (Cable News Network), Alexnet, etc. The system recommends suitable makeup methods based on differences in facial attributes to meet users' personalized makeup needs. From the perspective of technical practice, development process including data collection, model training to application development and deployment is completed. The introduction of cloud architecture solutions makes the proposed system more powerful in application performance and extension of all aspects.

Keywords: makeup recommendation; deep learning; facial feature extraction

1 ? 引言(Introduction)

在這樣的一個(gè)創(chuàng)新融合的時(shí)期,移動互聯(lián)網(wǎng)的高歌猛進(jìn),讓女性對于美麗的追求越來越高,也從線下追到線上,化妝人群也更加趨向年輕化,越來越多的年輕女生也開始通過互聯(lián)網(wǎng)獲取化妝相關(guān)的知識[1]。但是目前絕大多數(shù)試妝應(yīng)用也僅僅是利用妝容遷移,把各類不同的化妝產(chǎn)品或者妝容模板,利用技術(shù)遷移到用戶的臉上,無法給客戶提供合適自己的妝容。合適的妝容應(yīng)根據(jù)用戶的面容特點(diǎn)來推薦且應(yīng)該附上對應(yīng)的化妝方法。

本文研究的系統(tǒng)主要是利用深度學(xué)習(xí)相關(guān)技術(shù)來分析用戶的臉部特點(diǎn),再配合相關(guān)美妝知識個(gè)性化的推薦給用戶。相對于目前市面上統(tǒng)一的妝容模板,本文嘗試開發(fā)的產(chǎn)品更加具有靈活性和輕便型。同時(shí)本文產(chǎn)品主要針對年輕人群,隨著經(jīng)濟(jì)的基礎(chǔ)不斷發(fā)展,化妝人群年輕化,對于初學(xué)化妝的人群來說,定制化的個(gè)性推薦對于對化妝知識了解不多的她們來說尤為重要。

2 ?妝容推薦系統(tǒng)設(shè)計(jì)(Makeup recommendation system design)

2.1 ? 系統(tǒng)開發(fā)流程

本文主要研究和開發(fā)女性妝容推薦系統(tǒng)的方法。經(jīng)過閱讀了大量的化妝方法資料和文獻(xiàn),結(jié)合實(shí)際給出了根據(jù)人臉五官和臉型特征提供對應(yīng)的化妝方法的妝容推薦系統(tǒng)開發(fā)流程。系統(tǒng)的功能流程如圖1所示。

系統(tǒng)采用了dlib人臉特征點(diǎn)檢測的相關(guān)功能,將從CelebA數(shù)據(jù)集中采集來的圖像數(shù)據(jù)進(jìn)行人臉五官特征信息的分割,再將特征點(diǎn)信息和CelebA屬性整理形成CSV文件用作網(wǎng)絡(luò)訓(xùn)練的訓(xùn)練集和測試集,分別采用不同類型的神經(jīng)網(wǎng)絡(luò)模型(BP網(wǎng)絡(luò)、CNN網(wǎng)絡(luò)和Alexnet)學(xué)習(xí)人臉的五官特征,最終根據(jù)已有的數(shù)據(jù)集將神經(jīng)網(wǎng)絡(luò)調(diào)參至最佳效果,并保存相關(guān)模型放入到網(wǎng)絡(luò)環(huán)境中去使用。

2.2 ? 系統(tǒng)工程實(shí)現(xiàn)

系統(tǒng)工程主要實(shí)現(xiàn)神經(jīng)網(wǎng)絡(luò)在生產(chǎn)環(huán)境中應(yīng)用,利用相關(guān)工程技術(shù),如Nginx、Docker、Tensorflow Serving、Kubernetes、React等,制作高效可運(yùn)行的交互軟件。

用戶利用瀏覽器上傳圖片之后會轉(zhuǎn)碼成base64傳遞到服務(wù)端,服務(wù)端的入口是Ingress中間件,它會將Http的請求發(fā)送到后端的均衡負(fù)載器中,負(fù)載器會根據(jù)目前各個(gè)節(jié)點(diǎn)的資源剩余狀態(tài)將請求發(fā)送到具體的計(jì)算節(jié)點(diǎn)中去,在具體計(jì)算節(jié)點(diǎn)中會利用進(jìn)行預(yù)處理和模型判斷的工作最終要結(jié)果返回Ingress組成一個(gè)完整的Http響應(yīng)包,返回到用戶的瀏覽器客戶端,客戶端會根據(jù)模型計(jì)算的組合結(jié)果再根據(jù)預(yù)存的美妝推薦規(guī)則反饋成相應(yīng)的內(nèi)容顯示出來。

在計(jì)算節(jié)點(diǎn)內(nèi)部,當(dāng)接收到一個(gè)帶有Base64的載荷字符時(shí)會進(jìn)行不同的預(yù)處理操作,如針對臉型判斷會先分析出人臉的關(guān)鍵點(diǎn)再把輪廓的部分的關(guān)鍵點(diǎn)坐標(biāo)進(jìn)行相關(guān)整合傳入訓(xùn)練好的網(wǎng)絡(luò)模型中去,最終會把各個(gè)模型計(jì)算的結(jié)果整合成一個(gè)對象結(jié)果傳遞出去。

2.3 ? 開發(fā)環(huán)境和平臺介紹

本文所研究的系統(tǒng)主要都在一臺裝在Deepin 15.11的小米筆記本上進(jìn)行開發(fā)。主要利用的工具有如下:

(1)Conda 4.8可以快速切換python版本環(huán)境,利用高效的包管理工具,便捷的管理一些深度學(xué)習(xí)相關(guān)的模塊包[2]。

(2)Pycharm是一款業(yè)界優(yōu)秀的python開發(fā)ide,有非常多的實(shí)用的功能。

(3)Kears是一款神經(jīng)網(wǎng)絡(luò)庫,相比較TensorFlow,Kears提供了很多基礎(chǔ)的算法模型和簡潔的Api,新手非常容易就可以上手。

(4)dlib是一款十分優(yōu)秀的集成多種人臉識別的機(jī)器學(xué)習(xí)庫,文檔豐富社區(qū)活躍,本文使用的人臉定位就是依賴dlib的人臉68位檢測分類器。

3 ?數(shù)據(jù)采集和預(yù)處理工作(Data acquisition and preprocessing)

3.1 ? 數(shù)據(jù)采集、分離屬性和標(biāo)記工作

本文實(shí)驗(yàn)所使用的數(shù)據(jù)來自香港中文大學(xué)開放提供的名人人臉屬性數(shù)據(jù)集CelebA,它是一個(gè)大型的面部屬性的數(shù)據(jù)集,其中超過二十多萬的名人人臉圖像,每個(gè)人臉圖像有超過40個(gè)的特征屬性。該數(shù)據(jù)集中的圖像涵蓋了較大的人臉特征范圍,比較齊全。該數(shù)據(jù)集可用于人臉屬性標(biāo)識訓(xùn)練、人臉檢測訓(xùn)練以及l(fā)andmark標(biāo)記等。本文從其中的40個(gè)面部屬性主要提取以下幾個(gè)屬性:Pale_Skin(較白的膚色)、Chubby(圓胖的)、Pointy_Nose(尖鼻子)等屬性。由于CelebA給出的特征集是較為繁雜的,但是往往只需要單獨(dú)幾個(gè)屬性拿出來做訓(xùn)練,因此需要先將屬性和圖片信息一起提取出來,將對應(yīng)的屬性提取出來。采用了dlib人臉特征點(diǎn)檢測的相關(guān)功能,分割出人臉五官的特征信息。且將特征點(diǎn)信息和Celeba屬性整理好CSV文件用作訓(xùn)練網(wǎng)絡(luò)的訓(xùn)練集和測試集。

3.2 ? 數(shù)據(jù)預(yù)處理和特征提取

(1)臉型特征

首先根據(jù)dlib官方開源出來的shape_predictor_68_face_landmarks模型獲取數(shù)據(jù)集中每張圖片的人臉特征點(diǎn)信息,如圖2所示。針對人臉的臉型,本文利用計(jì)算0—16位特征點(diǎn)之間的歐式距離,獲取了兩個(gè)特征變量,加上CelebA中對應(yīng)屬性中的Chubby二進(jìn)制數(shù)據(jù),組成對應(yīng)的訓(xùn)練集數(shù)據(jù)存儲成對應(yīng)的csv文件。首位0和1就是人臉胖瘦趨向標(biāo)志,后面八位則是人臉16個(gè)對稱點(diǎn)之間的8個(gè)歐式距離,如下所示:

0,94,92,89,85,75,61,42,22

0,88,85,81,77,70,58,41,21

1,89,89,88,85,78,65,46,24

0,84,83,81,78,70,56,40,21

(2)膚色特征

針對膚色檢測,本文首先利用常見基于YCrCb顏色空間Cr、Cb范圍篩選法先濾出人臉照片中的皮膚部分,將圖片的RGB顏色空間映射到Y(jié)CrCb顏色空間上時(shí),在crcb的二維空間上這些皮膚像素點(diǎn)分布近似一個(gè)橢圓,因此這里只需要判斷像素點(diǎn)是否在橢圓范圍內(nèi),就可知道是否是膚色點(diǎn)像素。本文將在膚色范圍內(nèi)的像素值整理成一個(gè)一維數(shù)組,同時(shí)本文也從Celeba數(shù)據(jù)集的屬性中提取Pale_Skin(蒼白的皮膚)和Rosy_Cheeks(紅潤的臉頰)整合成為訓(xùn)練數(shù)據(jù),如圖3所示。

(3)鼻子特征

針對鼻子部分的特征提取,由于沒有較好的明顯特征可以提取,所以這里只需要截取鼻子周圍的圖片即可,降低臉部其他特征對于結(jié)果的影響,具體的鼻子特征將交由Alexnet網(wǎng)絡(luò)去提取隱含的高級特征。首先會根據(jù)dlib臉部分類器獲取到鼻子附近的關(guān)鍵點(diǎn)尋如圖(todo),找到最小的X和最大的Y點(diǎn)和最小的Y點(diǎn)。生成(Xmin,Y1)(Xmax,Y2)(Xmin,Ymin)(Xmax,Ymin)四個(gè)坐標(biāo)點(diǎn),并進(jìn)行裁剪和統(tǒng)一縮放,如圖4所示。

4 ?神經(jīng)網(wǎng)絡(luò)模型人臉特征分類(Face feature classification in neural network model)

隨著深度學(xué)習(xí)的不斷發(fā)展,神經(jīng)網(wǎng)絡(luò)層數(shù)的不斷加深和復(fù)雜,服務(wù)器性能的不斷提升,人們對于人臉的特征研究早已經(jīng)走出了刀耕火種的時(shí)代,可以通過非常成熟的模型做到如人臉識別、臉部特征點(diǎn)定位和臉部屬性分析等。這些成熟的網(wǎng)絡(luò)模型為本文的研究打下了堅(jiān)硬的技術(shù)基礎(chǔ),本文將運(yùn)用這些模型打造更加貼近美妝用戶的系統(tǒng)。

針對人臉五官的特征,本文設(shè)置了不同的神經(jīng)網(wǎng)絡(luò)模型來學(xué)習(xí)對應(yīng)的五官特征,用全連接前饋網(wǎng)絡(luò)訓(xùn)練人臉的臉型特征,用卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練膚色特色,用Alexnet網(wǎng)絡(luò)訓(xùn)練鼻子特征,并根據(jù)已有的數(shù)據(jù)集將神經(jīng)網(wǎng)絡(luò)調(diào)參至最佳效果,并將訓(xùn)練好的模型放入到生成環(huán)境中去使用。

4.1 ? 基于全連接前饋網(wǎng)絡(luò)臉型特征分類訓(xùn)練

針對臉型數(shù)據(jù)的訓(xùn)練,本文采用了全連接前饋網(wǎng)絡(luò)(BP神經(jīng)網(wǎng)絡(luò))模型。它的基本思想是梯度下降法,利用梯度搜索技術(shù),以期使網(wǎng)絡(luò)的實(shí)際輸出值和期望輸出值的誤差均方差為最小[3]。人臉的胖瘦,從主觀角度的來說是通過臉寬和臉寬的下降速度來判定的,而BP神經(jīng)網(wǎng)絡(luò)數(shù)學(xué)理論已證明它具有實(shí)現(xiàn)任何復(fù)雜非線性映射的功。實(shí)驗(yàn)結(jié)果也驗(yàn)證了BP神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)到八個(gè)歐氏距離樣本量和胖瘦分類之間的權(quán)重抉擇。

因?yàn)槿四樑质菔且粋€(gè)二進(jìn)制量,是一個(gè)典型的二分類的線性回歸問題,所以本文選擇了Sigmoid函數(shù)作為激活函數(shù),采用了二值交叉熵作為損失函數(shù)。Sigmoid函數(shù)也叫Logistic函數(shù),用于隱層神經(jīng)元輸出,取值范圍為(0,1),可以將一個(gè)實(shí)數(shù)映射到(0,1)的區(qū)間,用來做二分類。在特征相差比較復(fù)雜或是相差不是特別大時(shí)效果比較好。

如圖5所示,本文設(shè)計(jì)了一個(gè)三層的神經(jīng)網(wǎng)絡(luò),由一層輸入層、一層隱藏層、一層輸出層組成。在訓(xùn)練時(shí)本文選取了10000個(gè)訓(xùn)練樣本,經(jīng)過調(diào)參優(yōu)化超參數(shù)設(shè)定batchsize為100,訓(xùn)練100次,學(xué)習(xí)率設(shè)定為0.001可以快速達(dá)到最小損失。通過實(shí)驗(yàn)可以看到隨著訓(xùn)練的組數(shù)越多,損失逐漸降低,預(yù)判的正確率的也逐步升高。

4.2 ? 基于卷積神經(jīng)網(wǎng)絡(luò)膚色特征分類訓(xùn)練

卷積神經(jīng)網(wǎng)絡(luò)也是一種前饋神經(jīng)網(wǎng)絡(luò),但是卻又和普通的前饋全連接神經(jīng)網(wǎng)絡(luò)有很大的不同[4]。由于膚色和鼻子形狀特征提取相對來說比較復(fù)雜,所以本文把膚色和鼻子形狀的高階特征提取交給卷積神網(wǎng)絡(luò)來自動提取。針對膚色的訓(xùn)練,這里僅對膚色是否白嫩進(jìn)行訓(xùn)練,本文設(shè)計(jì)了一個(gè)簡單的CNN模型,將上部分預(yù)處理后的圖片的像素值作為輸入量,由于CelebaDataset中圖片尺寸都已經(jīng)固定好,這里不必要再做裁剪,將10000*218*218*3(圖片樣本數(shù)量*圖片高度* 圖片寬度*顏色通道數(shù))作為CNN輸入層的維度。

本文設(shè)計(jì)了如圖6所示的CNN網(wǎng)絡(luò),由多層卷積、池化、全連接層組成,選用Relu作為激活函數(shù),分類交叉熵作為損失函數(shù)。

膚色的訓(xùn)練會受到過多其他因素的影響,如光線和種族本身膚色都會對結(jié)果產(chǎn)生影響。

4.3 ? 基于Alexnet網(wǎng)絡(luò)鼻子特征分類訓(xùn)練

Alexnet是一種較為高效的CNN網(wǎng)絡(luò),對推動神經(jīng)網(wǎng)絡(luò)的發(fā)展起到了重要的作用,其作者加拿大多倫多大學(xué)的AlexKrizhevsky等人憑借Alexnet網(wǎng)絡(luò)在2012年的ImageNet比賽中獲得冠軍。Alexnet與普通的CNN的最大的不同地方就在于它的網(wǎng)絡(luò)構(gòu)造上,進(jìn)一步加深了網(wǎng)絡(luò)的深度,增加了網(wǎng)絡(luò)模型獲取高級特征的能力[5]。

本文采用的AlexNet有五個(gè)卷積層,其中三個(gè)卷積層后面連接了最大池化層,最后還有三個(gè)全連接層,如圖7所示。本文采用Alexnet作為訓(xùn)練鼻子形狀的模型,將裁剪后的鼻子作為的像素矩陣作為輸入層進(jìn)行訓(xùn)練。

5 推薦系統(tǒng)工程實(shí)現(xiàn)(Recommend system engineering implementation)

模型的訓(xùn)練已經(jīng)完成,但是在數(shù)據(jù)科學(xué)領(lǐng)域中將模型部署到生成環(huán)境且能夠提供高效和交互良好的工程也是一項(xiàng)很有挑戰(zhàn)性的課題。因?yàn)槭欠衲軌蜃屇P透玫拿嫦蛳M(fèi)者也是評價(jià)模型的重要指標(biāo)。本文針對推薦系統(tǒng)的工程實(shí)現(xiàn),搭建了一個(gè)B/S架構(gòu)的交互軟件,能夠讓用戶上傳人臉狀態(tài)并且反饋給用戶合適的妝容議。

5.1 ? 服務(wù)端的部署

服務(wù)端的主要實(shí)現(xiàn)的是利用模型和神經(jīng)網(wǎng)絡(luò)平臺來進(jìn)行特征分類,并提供有效接口。本文的模型是利用kears框架來實(shí)現(xiàn)訓(xùn)練,kears能夠以Tensorflow、CNTK或者Theano作為后端運(yùn)行。這里依舊采用默認(rèn)后端來支撐網(wǎng)絡(luò)運(yùn)行計(jì)算作出預(yù)算結(jié)果。同時(shí)利用Flask作為http服務(wù)器,它可以幫助開發(fā)響應(yīng)請求的RESTFUL API。采用RESTFUL式的API接口可以更好地分離服務(wù)端和客戶端,提高客戶端的敏捷性,其無狀態(tài)的特點(diǎn)也提高服務(wù)的可見性,可靠性和可緩存性,同時(shí)也可以提高服務(wù)端和客戶端的可擴(kuò)展性[6]。

為了進(jìn)一步實(shí)現(xiàn)應(yīng)用的快速部署和擴(kuò)展性,采用了Docker制作HTTP服務(wù)的鏡像。Docker主要利用Linux中的cgroups來限制進(jìn)程的資源使用率,chroot來限制進(jìn)程可訪問文件的權(quán)限,以及Linux核心命名空間(namespace)來分類網(wǎng)絡(luò)和權(quán)限的劃分,以此來達(dá)到一個(gè)快速穩(wěn)定可以迭代的虛擬化環(huán)境[7]。為了讓服務(wù)端程序具有自動化部署,大規(guī)??缮炜s的特性,還需要在Docker鏡像之上,將應(yīng)用部署到Kubernetes中去。Kubernetes是一個(gè)開源的容器編排引擎,它支持自動化部署、大規(guī)??缮炜s、應(yīng)用容器化管理。所以在完成一個(gè)應(yīng)用程序的開發(fā)時(shí),需要冗余部署該應(yīng)用的多個(gè)實(shí)例,同時(shí)需要支持對應(yīng)用的請求進(jìn)行負(fù)載均衡,在Kubernetes中,因?yàn)椴捎脗錇?zāi)的原則,同一應(yīng)用會在不同的服務(wù)器上創(chuàng)建多個(gè)容器實(shí)例,每個(gè)容器實(shí)例不僅僅在別的實(shí)例宕機(jī)時(shí)備用,利用Kubernetes自帶的負(fù)載均衡器或者自己設(shè)計(jì)的均衡負(fù)載可以讓各個(gè)實(shí)例分擔(dān)外部流量。

(1)RESTFUL服務(wù)搭建

在Flask引用中系統(tǒng)只需要提供一個(gè)統(tǒng)一接口,可以接受圖像文件,并返回相關(guān)預(yù)測標(biāo)簽,將相關(guān)的標(biāo)簽和化妝推薦規(guī)則映射放到客戶端來做。本文定義了"/face"這個(gè)接口來做統(tǒng)一接口文件,預(yù)處理圖片并調(diào)用模型進(jìn)行預(yù)測,返回一個(gè)標(biāo)準(zhǔn)JSON結(jié)構(gòu)體。如下:

{

"code":0,

"data":{

"nose":1,//是否高挺鼻子

"skin":50,// 膚色檢測均值

"face_shape":40 //臉型胖瘦均值

}

}

(2)封裝Docker鏡像

為了進(jìn)一步實(shí)現(xiàn)應(yīng)用的快速部署和擴(kuò)展性,可以選擇采用了Docker制作HTTP服務(wù)的鏡像。在制作鏡像中選擇采用Centos的作為基礎(chǔ)鏡像,添加python環(huán)境支持,利用python requirement。txt描述好所需要的包,利用CMD指令安裝好依賴包并啟動程序,對外開放80端口。

(3)部署進(jìn)入Kubernetes內(nèi)

為了讓服務(wù)端程序具有自動化部署,大規(guī)??缮炜s的特性。因此需要在Docker鏡像之上,將應(yīng)用部署到Kubernetes中去。Kubernetes集群中主要使用Kubernetes Service作為負(fù)載均衡的控制器,根據(jù)訪問的流量來控制運(yùn)行的Pod數(shù)量和分散請求流量,而Pod自動化部署和自愈性又進(jìn)一步增強(qiáng)了系統(tǒng)的問題性[8]。最后通過Ingress作為Kubernetes集群的入口對外提供訪問服務(wù)。

5.2 ? 客戶端的實(shí)現(xiàn)

(1)技術(shù)選型介紹

客戶端主要實(shí)現(xiàn)圖片上傳和信息反饋的功能,這里主要采用React和Antd 組件庫來完成快速開發(fā)。React是FaceBook推出的一款基于VirtualDom的前端框架。程序員只需要去操作VirtualDom的結(jié)構(gòu),框架會根據(jù)性能和顯示優(yōu)先級自動使用DomAPi更新頁面圖示。且React還是一款基于組件化的前端框架,因此可以不斷復(fù)用相同的組件,Antd就是提供了一些通用的前端組件,極大地減少了開發(fā)者的開發(fā)工作量。Antd是服務(wù)于企業(yè)級產(chǎn)品的設(shè)計(jì)體系,基于確定和自然的設(shè)計(jì)價(jià)值觀上的模塊化解決方案,讓設(shè)計(jì)者和開發(fā)者專注于更好的用戶體驗(yàn)。

(2)客戶端操作方法

客戶端的使用非常簡單,由于是采用B/S架構(gòu),用戶只需使用瀏覽器訪問對應(yīng)的頁面即可。點(diǎn)擊上傳按鈕選擇本機(jī)已經(jīng)拍攝好的素顏照片確定即可,圖片會傳遞到集群服務(wù)器中進(jìn)行分析并返回對應(yīng)的結(jié)果,在前端顯示。顯示結(jié)果會以彈窗的形式進(jìn)行展示,如圖8所示。

猜你喜歡
深度學(xué)習(xí)
從合坐走向合學(xué):淺議新學(xué)習(xí)模式的構(gòu)建
面向大數(shù)據(jù)遠(yuǎn)程開放實(shí)驗(yàn)平臺構(gòu)建研究
基于自動智能分類器的圖書館亂架圖書檢測
搭建深度學(xué)習(xí)的三級階梯
有體驗(yàn)的學(xué)習(xí)才是有意義的學(xué)習(xí)
電子商務(wù)中基于深度學(xué)習(xí)的虛假交易識別研究
利用網(wǎng)絡(luò)技術(shù)促進(jìn)學(xué)生深度學(xué)習(xí)的幾大策略
考試周刊(2016年94期)2016-12-12 12:15:04
MOOC與翻轉(zhuǎn)課堂融合的深度學(xué)習(xí)場域建構(gòu)
大數(shù)據(jù)技術(shù)在反恐怖主義中的應(yīng)用展望
深度學(xué)習(xí)算法應(yīng)用于巖石圖像處理的可行性研究
主站蜘蛛池模板: 国产鲁鲁视频在线观看| 激情午夜婷婷| 精品福利网| 五月婷婷精品| 日本一区二区三区精品国产| 中文成人在线| 国产人人射| 激情成人综合网| 精品福利一区二区免费视频| 全部无卡免费的毛片在线看| 国产在线自揄拍揄视频网站| 97影院午夜在线观看视频| 欧美午夜网| 国产精品欧美亚洲韩国日本不卡| 天堂成人在线视频| 园内精品自拍视频在线播放| 精品福利国产| 自拍偷拍一区| 毛片基地美国正在播放亚洲 | 亚洲制服丝袜第一页| 成年人视频一区二区| 精品午夜国产福利观看| 免费毛片全部不收费的| 欧美另类第一页| 国产电话自拍伊人| 91九色视频网| 中文字幕在线观看日本| 欧美激情视频一区| 免费又爽又刺激高潮网址| 国产精品无码翘臀在线看纯欲| 中文字幕在线日本| 三区在线视频| 五月天丁香婷婷综合久久| 久久久久国产一级毛片高清板| 国产成人8x视频一区二区| 狠狠色狠狠色综合久久第一次 | h视频在线观看网站| 国产精品亚欧美一区二区| 国产91丝袜在线播放动漫 | 妇女自拍偷自拍亚洲精品| 一级毛片在线播放| 狂欢视频在线观看不卡| 日韩精品免费一线在线观看| 极品av一区二区| 精品伊人久久久久7777人| 国产精品久久自在自2021| 91精品国产丝袜| 波多野结衣第一页| 久久久久无码国产精品不卡| 9cao视频精品| 1769国产精品视频免费观看| 久久久久人妻一区精品色奶水| 91精品国产一区| 亚洲日本中文字幕乱码中文| 亚洲天堂伊人| 国产精品午夜福利麻豆| 18禁色诱爆乳网站| 日本久久网站| 91美女视频在线| 国产成人调教在线视频| 91精品国产自产在线观看| 国产一级小视频| 国产高清不卡视频| 亚洲三级成人| 久久亚洲美女精品国产精品| 午夜性爽视频男人的天堂| 综合亚洲色图| 真实国产乱子伦视频| 亚洲精品少妇熟女| 亚洲AV人人澡人人双人| 久久久久久国产精品mv| 超清无码熟妇人妻AV在线绿巨人| 久久国产高清视频| 日韩激情成人| 91久久偷偷做嫩草影院| 97视频免费在线观看| 欧美精品二区| 欧美另类视频一区二区三区| 国产菊爆视频在线观看| 波多野结衣中文字幕久久| 国产18在线| 国产一级毛片网站|