999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于卷積神經(jīng)網(wǎng)絡(luò)的街景環(huán)境評價?

2021-06-29 08:42:00
計算機(jī)與數(shù)字工程 2021年6期
關(guān)鍵詞:評價方法

李 淵

(華中科技大學(xué) 武漢 430074)

1 引言

傳統(tǒng)的城市環(huán)境評價研究通常采用基于現(xiàn)場調(diào)研的方法,這類方法難以在大范圍、精細(xì)化的尺度上對城市環(huán)境進(jìn)行有效的評估。隨著信息技術(shù)的發(fā)展,街景圖像成為城市環(huán)境評價研究中新的重要數(shù)據(jù)源,街景圖像具有覆蓋面廣、信息量涵蓋豐富、采集成本低等優(yōu)勢,基于街景圖像理解的城市環(huán)境評價方法逐漸成為城市環(huán)境評價的重要手段[1]。早在1990年,Jack L等就提出用計算機(jī)視覺的方法來量化街景的質(zhì)量[2]。2001年,Oliva A等通過區(qū)域生長的方法分割出街景圖像“街道”、“天空”等區(qū)域,并人為設(shè)定規(guī)則,實(shí)現(xiàn)對街景圖像的評價[3]。2012年,Goel A等綜合了Geometric Texton、GIST和Color Histograms等特征[4],改進(jìn)了Kmeans聚類,實(shí)現(xiàn)了不同城市街景圖像風(fēng)格的分類。這類街景圖像評價方法基于人工設(shè)定規(guī)則,利用人對街景圖像評價時會考慮的因素如“綠化率”、“整潔度”等,通過對街景圖像內(nèi)容進(jìn)行相應(yīng)的分析得出評價。然而這類方法評價規(guī)則上帶有規(guī)則設(shè)計者的主觀色彩,評價方法不客觀且效果不理想。2014年,MIT Media Lab的Nikhil Naik等提出“streetscore”項目[5],Naik等人收集了1萬多張美國的街景圖像,以0到10為安全感的打分范圍,進(jìn)行了人工標(biāo)簽,首次通過監(jiān)督學(xué)習(xí)的方法實(shí)現(xiàn)了對街景圖像的評價。帶有數(shù)據(jù)監(jiān)督的方法能從數(shù)據(jù)中學(xué)習(xí)到潛在的聯(lián)系,相較于傳統(tǒng)方法而言較為客觀,也更有說服力[6~8],使用評分來量化對街景圖像的評價會更加直觀,讓人們更容易接受。

卷積神經(jīng)網(wǎng)絡(luò)在圖像領(lǐng)域的發(fā)展帶來了更好的圖像全局特征提取方法,相比傳統(tǒng)的特征提取方法,深度卷積神經(jīng)網(wǎng)絡(luò)提取的特征具有信息損失更少、魯棒性高和泛化性等優(yōu)點(diǎn)[11]。2015年,Lorenzo Porzi等人使用改進(jìn)的Alexnet提取特征[7],有效地提高了模型的“打分”能力。在應(yīng)用層面上,2016年,Edward Glaeser等人通過學(xué)習(xí)谷歌街景來預(yù)測紐約的地區(qū)收入水平。隨后,Dubey A,Naik N,Parikh D合作將訓(xùn)練集規(guī)模提升到110,988幅街景圖像,標(biāo)簽上從安全感變?yōu)榘踩⒒顫娕c無聊等多個屬性,算法上采用了Resnet卷積神經(jīng)網(wǎng)絡(luò)[6],進(jìn)一步提高了精確度[8,12]。

街景環(huán)境評價方法在近些年來取得了長足的進(jìn)步,主要體現(xiàn)在兩個方面:基于人工設(shè)定規(guī)則的分類方法逐漸被基于監(jiān)督學(xué)習(xí)的分類算法取代[9];傳統(tǒng)的特征提取方法逐漸被卷積神經(jīng)網(wǎng)絡(luò)取代,卷積神經(jīng)網(wǎng)絡(luò)提取的特征具有信息損失更少、魯棒性高和泛化性等優(yōu)點(diǎn)[10~11]。盡管如此,基于卷積神經(jīng)網(wǎng)絡(luò)的街景評價方法仍存在以下缺陷:用于街景評價的卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)多借鑒分類任務(wù),而分類任務(wù)和街景評價是兩種不同得任務(wù);現(xiàn)階段常用的損失函數(shù)能有效地度量錯分類導(dǎo)致的損失,然而難以度量街景錯評價帶來的損失;傳統(tǒng)的街景評價方法將數(shù)據(jù)集的標(biāo)簽視作可靠的、有效地,然而街景評價標(biāo)簽具有標(biāo)注者較強(qiáng)的主觀性,標(biāo)簽并不能一定準(zhǔn)確地表達(dá)街景圖像的實(shí)際得分。基于以上缺點(diǎn),論文從網(wǎng)絡(luò)結(jié)構(gòu)的改進(jìn)、損失函數(shù)的修正、訓(xùn)練方法的優(yōu)化這三個方向著手,提出了更好的街景評價方法。

2 街景環(huán)境評價方法

基于卷積神經(jīng)網(wǎng)絡(luò)的街景環(huán)境評價方法實(shí)質(zhì)上是訓(xùn)練一個卷積神經(jīng)網(wǎng)絡(luò),網(wǎng)絡(luò)輸入為街景圖像,網(wǎng)絡(luò)輸出為對街景圖像的環(huán)境評分。因此,設(shè)計出一個好的街景評價網(wǎng)絡(luò)和如何訓(xùn)練好網(wǎng)絡(luò)是基于卷積神經(jīng)網(wǎng)絡(luò)的街景評價方法的兩大核心問題。

2.1 網(wǎng)絡(luò)結(jié)構(gòu)設(shè)計

2.1.1 Stem-Block結(jié)構(gòu)

對于街景評價問題而言,起主要作用的是網(wǎng)絡(luò)深層提取的語義特征,而淺層網(wǎng)絡(luò)提取的像素級特征是深層網(wǎng)絡(luò)的基礎(chǔ)。

Stem Block先對輸入圖像做32通道3×3步長為2的卷積,隨后對這32通道特征圖做兩個方向的處理:一方面對其做2×2的Max pooling,使其保留大部分響應(yīng)較強(qiáng)的特征信息;另一方面先對其做1×1的卷積,后再做32通道3×3步長為2的卷積,獲得更深層的特征信息。最后對獲得的特征圖融合,Stem Block結(jié)構(gòu)使用較少的計算有效地獲得不同感受野的圖像底層級特征,并將輸入的尺寸降低了16倍。

圖1 Stem Block結(jié)構(gòu)簡圖

2.1.2 雙通道特征整合

對于denselayer,采用所示的雙通道結(jié)構(gòu),雙通道結(jié)構(gòu)借鑒了Inception的優(yōu)點(diǎn),使用不同大小的卷積核有利于多尺度特征的學(xué)習(xí),相較于傳統(tǒng)的單通道結(jié)構(gòu),雙通道的特征提取結(jié)構(gòu)具有更好的感受野。另外為了避免計算量的大幅提升,將每個通道的通道數(shù)縮減為之前的一半,在降低計算量的同時,損失的信息量也相對較少。

圖2 Two-way Denselayers結(jié)構(gòu)簡圖

2.1.3 網(wǎng)絡(luò)結(jié)構(gòu)

本文采用的網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示:輸入圖像尺寸為224×224,經(jīng)過Stem Block結(jié)構(gòu)后,提取了32通道尺寸為56×56的低層次特征圖,后經(jīng)過4個Dense Block結(jié)構(gòu)不斷地提取更高層級的特征圖,最后為704通道尺寸為7×7的語義特征圖,通過均值操作提取了704維的特征向量。

圖3 網(wǎng)絡(luò)結(jié)構(gòu)簡圖

2.2 基于類間距離的交叉熵?fù)p失函數(shù)

對于分類問題,損失函數(shù)只需要衡量網(wǎng)絡(luò)錯分類導(dǎo)致的損失,如公式1,使用交叉熵?fù)p失函數(shù)度量錯分類導(dǎo)致的損失是適用的。其中J(θ)表示損失值,m表示一次梯度下降訓(xùn)練中所參與的樣本數(shù)量,xi,yi分別表示第i個樣本的輸入與標(biāo)簽的獨(dú)熱編碼值(one-hot encode),則=1,其他為0,hθk(xi)表示第i個樣本的分?jǐn)?shù)為k的神經(jīng)元的概率輸出。

公式1交叉熵?fù)p失函數(shù)

而對于街景評分而言,錯誤的評分造成損失值不同,損失Jk(θ)應(yīng)與模型輸出分?jǐn)?shù)和標(biāo)簽分?jǐn)?shù)差k-si的絕對值成正相關(guān),si表示第i個樣本標(biāo)簽分?jǐn)?shù),因此在交叉熵的基礎(chǔ)上修正損失函數(shù)為

公式2基于類間距離修正的交叉熵?fù)p失函數(shù)

2.3 基于課程學(xué)習(xí)策略的網(wǎng)絡(luò)訓(xùn)練

傳統(tǒng)的監(jiān)督學(xué)習(xí)方法在學(xué)習(xí)這些不可靠樣本時,會讓模型向有偏差甚至錯誤的方向優(yōu)化,效果將會大打折扣[12~14]。在含有大量不可靠標(biāo)簽的數(shù)據(jù)集里,可以把整個數(shù)據(jù)集分成一系列子集,將子集按標(biāo)簽可靠性進(jìn)行排序,在網(wǎng)絡(luò)的訓(xùn)練過程中,依據(jù)樣本子集標(biāo)簽的可靠性順序,由可靠到不可靠依次對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,這種學(xué)習(xí)方法稱為課程學(xué)習(xí)[15,17~18]。

對于訓(xùn)練集中的某一樣本,如果它與標(biāo)簽為同一類別的大部分樣本具有較高的相似度,那么則認(rèn)為標(biāo)簽是相對可靠的,如果它與標(biāo)簽為同一類別的大部分樣本具有較低的相似度,那么則認(rèn)為標(biāo)簽是相對不可靠的。

步驟1 使用2.1.3小節(jié)的卷積神經(jīng)網(wǎng)絡(luò)提取所有訓(xùn)練樣本的街景評分特征。

步驟2 對于標(biāo)簽同為L的m個訓(xùn)練樣本,計算它們街景評分特征的相似度矩陣

步驟4 αi為第i個樣本與同類別樣本集相似度的衡量,隨后以等分取閾值講訓(xùn)練樣本分為n類,αi越大則認(rèn)為其越可靠,由此將訓(xùn)練樣本劃分為n個不同可靠性的訓(xùn)練子集。

3 準(zhǔn)備工作

3.1 樣本收集與評分體系建立

傳統(tǒng)的街景環(huán)境評價方法主要使用了Naik提供的數(shù)據(jù)集[5],其中包涵了來自于美國各大城市的3214張街景圖像;為了豐富街景圖像來源,本文的street-score數(shù)據(jù)集圖像還收集了來自國內(nèi)不同城市的街景圖像,包涵了來自中國5大城市的18672張街景圖像。其評分含義為標(biāo)注者對街景圖像的綜合感官評價,包括整潔度、舒適度、美感和安全感等主觀感受。標(biāo)簽為0~10的11個等級的綜合感官評價,其中0代表最低評價,10代表著最高評價。

回歸算法中,常用指標(biāo)MAE(Mean Absolutely Error)反映了模型評分與標(biāo)簽評分的平均絕對誤差,MSE(Mean Squared Error)表達(dá)模型評分與標(biāo)簽評分的平均平方誤差。對于街景評分,當(dāng)網(wǎng)絡(luò)輸出評分與標(biāo)簽評分差不大于1,其輸出可以視為正確,評分正確的概率記作ACC(Accuracy)。在下文的實(shí)驗(yàn)中,將ACC、MAE、MSE作為反映模型性能的指標(biāo)。

3.2 街景圖像評分流程

基于卷積神經(jīng)網(wǎng)絡(luò)的街景評分流程如下。

步驟1 使用Place365數(shù)據(jù)集[12]對2.1.3小節(jié)的卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行預(yù)訓(xùn)練,使用街景評分?jǐn)?shù)據(jù)集訓(xùn)練網(wǎng)絡(luò),直至損失基本不變。

步驟2 使用2.3小節(jié)的方法將街景評分?jǐn)?shù)據(jù)集劃分為若干個訓(xùn)練子集。

步驟3 使用標(biāo)簽最可靠的訓(xùn)練子集對網(wǎng)絡(luò)精調(diào)至損失基本不變。向訓(xùn)練集逐步加入相對不可靠的訓(xùn)練子集對網(wǎng)絡(luò)進(jìn)行訓(xùn)練,直至所有的訓(xùn)練子集均使用為止。

步驟4 對于任意街景圖像,將其歸一化后作為網(wǎng)絡(luò)的輸入,即可輸出街景圖像的評分。

圖4 street-score數(shù)據(jù)集街景圖像展示

4 實(shí)驗(yàn)分析

4.1 損失函數(shù)的對比實(shí)驗(yàn)

為驗(yàn)證基于類間距離的交叉熵?fù)p失函數(shù)有利于網(wǎng)絡(luò)的街景評分性能,使用交叉熵?fù)p失函數(shù)對初始化的卷積神經(jīng)訓(xùn)練30個epoch,學(xué)習(xí)率設(shè)為0.01,優(yōu)化器為Adam。再用SGD對分類器訓(xùn)練20個ep?och,學(xué)習(xí)率設(shè)為0.0002,分類器的損失值基本保持不變。分別使用最大間隔交叉熵?fù)p失函數(shù)[12,16]、修正的損失函數(shù)重復(fù)上述步驟。

表1 兩種損失函數(shù)的對比

表1為驗(yàn)證集各指標(biāo)交叉驗(yàn)證5次的均值,實(shí)驗(yàn)表明,合適的損失度量將有利于模型擬合性能的提升,本文提出的損失函數(shù)使網(wǎng)絡(luò)性能提升的幅度較為明顯,street-score數(shù)據(jù)集上相較于交叉熵?fù)p失準(zhǔn)確率提升了2.8%,相較于最大間隔交叉熵?fù)p失準(zhǔn)確率提升了2.0%,平均絕對誤差相較于交叉熵?fù)p失下降了11.8%,相較于最大間隔交叉熵?fù)p失下降了8.76%。

4.2 訓(xùn)練方法的對比實(shí)驗(yàn)

為了驗(yàn)證基于課程學(xué)習(xí)策略的網(wǎng)絡(luò)訓(xùn)練方法使得網(wǎng)絡(luò)能有更好的評分效果,論文作出如下對比實(shí)驗(yàn)。

1)監(jiān)督學(xué)習(xí)方法,使用基于類間距離的交叉熵?fù)p失函數(shù)對初始化的卷積神經(jīng)訓(xùn)練30個epoch,學(xué)習(xí)率設(shè)為0.01,優(yōu)化器為Adam。再用SGD對分類器訓(xùn)練20個epoch,學(xué)習(xí)率設(shè)為0.0002,分類器的損失值基本保持不變。

2)課程學(xué)習(xí)方法,使用2.3小節(jié)的方法將訓(xùn)練集分為3個訓(xùn)練子集:“相對可靠”的訓(xùn)練子集、“一般可靠”的訓(xùn)練子集、“不可靠”的訓(xùn)練子集。使用“相對可靠”的訓(xùn)練子集對初始化的卷積神經(jīng)訓(xùn)練20個epoch,學(xué)習(xí)率設(shè)為0.01,優(yōu)化器為Adam。向訓(xùn)練集加入“一般可靠”的訓(xùn)練子集,用SGD對網(wǎng)絡(luò)訓(xùn)練20個epoch,學(xué)習(xí)率設(shè)為0.0002。向訓(xùn)練集加入“不可靠”的訓(xùn)練子集,用SGD對網(wǎng)絡(luò)訓(xùn)練20個epoch,學(xué)習(xí)率設(shè)為0.0002。

表2表明,基于課程學(xué)習(xí)的訓(xùn)練方法有利于網(wǎng)絡(luò)街景評分性能的提升,提升的幅度較為明顯,street-score數(shù)據(jù)集上準(zhǔn)確率提升了6.4%,平均絕對誤差下降了7.76%。

表2 兩種訓(xùn)練方式的對比

4.3 方法對比

本文將與前人在街景評價的工作進(jìn)行對比實(shí)驗(yàn),參與對比有方法如下。

2014年,Naik N等提出,將Geometric Texton、GIST和Color Histograms等多特征融合,最后使用SVM做分類[5]。

2015年,Lorenzo Porzi等使用改進(jìn)的Alexnet實(shí)現(xiàn)街景圖像評分[7]。

2016年,Dubey A等使用Resnet結(jié)合Large-Margin Softmax loss實(shí)現(xiàn)街景圖像評分[8]。

表3 街景評分方法對比

如表3所示,論文提出的方法相較于前人的方法具有最好的街景評分效果。相較于效果較好Dubey A的方法,準(zhǔn)確率提升了9.7%,平均絕對誤差下降了25.8%,本文的方法具有明顯的提升。

圖5 街景評分方法效果示意圖

如圖5所示,論文的街景評分方法相對于前人的方法有著更準(zhǔn)確的評分效果,評分結(jié)果基本與標(biāo)注者一致。

5 結(jié)語

本文在網(wǎng)絡(luò)淺層使用Stem Block結(jié)構(gòu),優(yōu)化了低層次特征提取效果;對于稠密層,采用雙通道denselayer結(jié)構(gòu),相較于傳統(tǒng)的單通道結(jié)構(gòu),雙通道的特征提取結(jié)構(gòu)具有更好的感受野[19~20]。論文還在交叉熵的基礎(chǔ)上提出了基于類間距離度量的交叉熵?fù)p失函數(shù),更加準(zhǔn)確地衡量街景評分與標(biāo)簽分差帶來的損失,從而使模型向更優(yōu)的方向優(yōu)化,使得平均絕對誤差、均方誤差均有下降。論文引用了課程學(xué)習(xí)的方法有效地解決了訓(xùn)練樣本標(biāo)簽不可靠帶來的模型訓(xùn)練偏離最優(yōu)化方向問題。在模型訓(xùn)練過程中,讓模型從可靠的數(shù)據(jù)集開始學(xué)習(xí),再逐漸增加相對不可靠的數(shù)據(jù)集,使得模型的性能逐步提高。

猜你喜歡
評價方法
SBR改性瀝青的穩(wěn)定性評價
石油瀝青(2021年4期)2021-10-14 08:50:44
中藥治療室性早搏系統(tǒng)評價再評價
學(xué)習(xí)方法
可能是方法不對
用對方法才能瘦
Coco薇(2016年2期)2016-03-22 02:42:52
四大方法 教你不再“坐以待病”!
Coco薇(2015年1期)2015-08-13 02:47:34
賺錢方法
捕魚
基于Moodle的學(xué)習(xí)評價
關(guān)于項目后評價中“專項”后評價的探討
主站蜘蛛池模板: 国产内射一区亚洲| 国产不卡国语在线| 欧美精品一区在线看| 美女一级毛片无遮挡内谢| 精品国产99久久| 91精品国产91久无码网站| 亚洲第一页在线观看| 国产精选小视频在线观看| 五月婷婷丁香综合| 亚洲制服丝袜第一页| 26uuu国产精品视频| 丁香婷婷久久| 国产精品护士| 五月六月伊人狠狠丁香网| 国产美女91视频| 久久精品国产亚洲麻豆| 黄色片中文字幕| 欧美精品成人一区二区视频一| 91色综合综合热五月激情| 美女国产在线| 久久永久精品免费视频| 日本欧美在线观看| 中国一级特黄大片在线观看| 999国内精品视频免费| 午夜精品久久久久久久99热下载 | 99这里精品| 日本高清视频在线www色| 国产乱码精品一区二区三区中文| 亚洲Av激情网五月天| 亚洲中文字幕手机在线第一页| 中文字幕第1页在线播| 国产精品偷伦在线观看| 久久无码av一区二区三区| 男人天堂亚洲天堂| 成人欧美日韩| 一区二区三区四区精品视频 | 欧美国产精品不卡在线观看| 久久久久人妻一区精品色奶水| 无码aaa视频| 国产精品污污在线观看网站| 91精品国产自产在线观看| 午夜欧美理论2019理论| 18黑白丝水手服自慰喷水网站| 97青草最新免费精品视频| 亚洲色图欧美视频| 亚洲国产亚综合在线区| 爆乳熟妇一区二区三区| 香蕉视频在线观看www| 亚洲高清免费在线观看| 99尹人香蕉国产免费天天拍| 亚洲天堂在线免费| 欧美成人一级| 在线视频一区二区三区不卡| 一级不卡毛片| 国产精品第| 免费在线看黄网址| 在线视频97| 亚洲视频在线网| 国产门事件在线| 国产在线一区视频| 呦女精品网站| 永久天堂网Av| 54pao国产成人免费视频| 国产精品无码在线看| 丰满少妇αⅴ无码区| 亚洲 欧美 偷自乱 图片 | 亚洲三级视频在线观看| 国产黄色视频综合| 日本高清免费不卡视频| 亚洲一区二区精品无码久久久| 中文字幕第4页| 天天色天天综合网| 欧美国产日韩在线观看| 日韩欧美亚洲国产成人综合| 久夜色精品国产噜噜| 久久久91人妻无码精品蜜桃HD | 1024你懂的国产精品| 在线观看热码亚洲av每日更新| 国产欧美精品专区一区二区| 欧美日韩亚洲国产主播第一区| 国产在线观看一区二区三区| 久久精品丝袜高跟鞋|