999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

基于角度半徑的青年男子軀干部形態(tài)相似性匹配

2024-08-13 00:00:00張馳王祥榮盛錫彬顧冰菲
絲綢 2024年8期

摘要: 為實現(xiàn)基于三維人體點云的人體形態(tài)相似性匹配,文章提出了利用角度半徑進(jìn)行青年男體軀干部輪廓形態(tài)描述的方法。先以187名18~25周歲的青年男大學(xué)生為研究對象,使用三維掃描法獲取其三維點云數(shù)據(jù)。再通過逆向工程軟件識別人體軀干部特征點,截取其正側(cè)面軀干輪廓形態(tài)。然后分別建立正側(cè)面軀干部坐標(biāo)系,提取27個正面角度半徑值和60個側(cè)面角度半徑值形成三維點云軀干形態(tài)數(shù)據(jù)庫。選取14名被試者進(jìn)行驗證,提取的正、側(cè)面角度半徑為樣本,采用均方根誤差法與點云截面數(shù)據(jù)庫進(jìn)行匹配,并使用OpenCV框架中的MatchSharp法驗證匹配結(jié)果。結(jié)果顯示,13名被試者的軀干部正側(cè)面輪廓形態(tài)與三維點云輪廓形態(tài)匹配成功,準(zhǔn)確率達(dá)92.86%。研究結(jié)果可為三維點云形態(tài)相似性分析提供一定的理論基礎(chǔ)。

關(guān)鍵詞: 角度半徑;人體輪廓;軀干部形態(tài);形態(tài)相似性;青年男子;三維點云

中圖分類號: TS941.17

文獻(xiàn)標(biāo)志碼: A

文章編號: 10017003(2024)08期數(shù)0087起始頁碼08篇頁數(shù)

DOI: 10.3969/j.issn.1001-7003.2024.08期數(shù).010(篇序)

收稿日期: 20240102;

修回日期: 20240614

基金項目: 國家自然科學(xué)基金項目(61702461);“紡織之光”中國紡織工業(yè)聯(lián)合會應(yīng)用基礎(chǔ)研究項目(J202007);中國紡織工業(yè)聯(lián)合會科技指導(dǎo)性項目(2018079);浙江理工大學(xué)科研業(yè)務(wù)費(fèi)專項資金資助項目(2020Q051)

作者簡介: 盛錫彬(1998),男,碩士研究生,研究方向為數(shù)字化服裝技術(shù)。通信作者:顧冰菲,副教授,gubf@zstu.edu.cn。

隨著世界經(jīng)濟(jì)的不斷發(fā)展,人們的生活水平不斷提高,對服裝的舒適性、合體性等的需求也日益凸顯[1-3]。線上服裝消費(fèi)過程中,由于無法試穿,消費(fèi)者難以選到合體服裝,如何快速準(zhǔn)確地對消費(fèi)者人體形態(tài)進(jìn)行分析是個亟待解決的問題[4-5]。

非接觸式二維人體測量法逐漸受到重視[6],其中人體輪廓的識別和匹配是重點研究方向。眾多國內(nèi)外學(xué)者對此已做了大量研究,倪世明等[7]采用RBF神經(jīng)網(wǎng)絡(luò)、三次樣條函數(shù)、最小二乘法分別構(gòu)建冠狀面輪廓曲線模型,對比后RBF神經(jīng)網(wǎng)絡(luò)精度優(yōu)于后兩種,并通過冠狀面輪廓擬合曲線曲率和二階導(dǎo)數(shù)進(jìn)一步量化分析人體輪廓的主要特征點,但該方法不能準(zhǔn)確描述出人體輪廓,只能找出其關(guān)鍵特征點和輪廓的曲率。Ilaria等[8]提出了一種利用傅里葉系數(shù)的相位和使用動態(tài)時間規(guī)整距離來描述形狀,使傅里葉描述符更加易于實現(xiàn),但該方法需在與查詢圖像完全匹配的內(nèi)容的大型數(shù)據(jù)庫中使用。Mokhtarian等[9]利用曲率尺度空間來表示物體輪廓的形狀,通過計算曲率來描述不同的形狀,根據(jù)過輪廓線最大值的對應(yīng)關(guān)系進(jìn)行相似度計算,但評價該匹配方法的有效性太過于主觀。Attalla等[10]提出了一種多分辨率等分多邊形并獲取其中心周圍的三個特征的方法,在保持高精度的同時,也滿足了在不同時間和空間上的靈活性。該研究所提出的方法具備旋轉(zhuǎn)、縮放和平移不變性,但對輪廓和數(shù)據(jù)庫的要求比較高。

近年來,Belongie等[11]提出的形狀上下文描述符得到了國內(nèi)外眾多學(xué)者的認(rèn)可,即基于輪廓點集的空間位置關(guān)系進(jìn)行形狀描述,可結(jié)合其他方法來彌補(bǔ)非精確匹配的限制。Ling等[12]提出了結(jié)合形狀上下文擴(kuò)展后的內(nèi)距離和多維尺度來構(gòu)造形狀描述子,并在人體輪廓上進(jìn)行測試且得到了良好的匹配結(jié)果。Daliri等[13]首次提出了符號串與形狀上下文結(jié)合的形狀描述子,將每個輪廓轉(zhuǎn)換為符號串,并使用編輯距離計算符號之間的相似度。劉建秀等[14]引入了一種基于輪廓關(guān)鍵點和表面描述點的形狀上下文的形狀描述子,使用輪廓線和表面泊松盤均勻采樣獲取模型的特征描述。在獲取較少采樣點以提高模型對比效率的同時,對模型結(jié)構(gòu)的改變變得十分敏感。李彩霞等[15]提出了一種對形狀上下文特征匹配進(jìn)行改進(jìn)的線狀要素Morphing方法,只考慮線上點的分布形態(tài),消除了點集數(shù)目差異對點對相似性評估的影響。吳建立[16]以坐標(biāo)點和形狀質(zhì)心的連線為X軸創(chuàng)建對數(shù)極坐標(biāo)的方法來改進(jìn)形狀上下文,又用K近鄰濾波器將圖像輪廓做預(yù)處理,改進(jìn)后的形狀上下文的形狀描述子提高了穩(wěn)定性和有效性。以上研究中所使用的形狀上下文的方法對輪廓匹配具有嚴(yán)格的要求,且無法處理匹配結(jié)果中出現(xiàn)異常點的問題。李曉[17]指出形狀上下文在形狀描述和匹配上還有一定的缺陷,在圖像的噪聲、邊界特征點的提取都有很大的改進(jìn)空間。從陳慧靜等[18]使用形狀上下文匹配人臉中可以看出,使用形狀上下文匹配人體形態(tài)的困難程度大。

針對以上匹配難度大、精確度低等不足,本研究結(jié)合人體三維點云數(shù)據(jù),探討如何將人體輪廓形態(tài)進(jìn)行量化描述。提出一種基于角度半徑的輪廓形態(tài)描述法,建立基于人體點云的正側(cè)截面軀干形態(tài)角度半徑數(shù)據(jù)庫,并選取14名被試者作為待匹配對象,來提取角度半徑值。最后利用均方根誤差法實現(xiàn)三維點云截面軀干形態(tài)的相似性匹配,并通過OpenCV框架中的MatchSharp算子進(jìn)行方法的有效性驗證,為基于人體三維點云的形態(tài)分析和三維重建研究提供理論依據(jù)和技術(shù)支持。

1 數(shù)據(jù)采集

1.1 人體測量方法

人體測量實驗主要采用三維掃描測量法。實驗環(huán)境溫度(27±3) ℃,相對濕度(60±10)%。測試者需統(tǒng)一佩戴上白色測量帽,身著合體白色短褲,身上不可佩戴手表、項鏈等飾品,并依照指定姿勢站立。采用美國[TC2]NX-16非接觸式三維人體掃描儀以指定站姿進(jìn)行掃描,測試者需呈自然放松狀態(tài),雙腳站立在標(biāo)有腳印的位置,雙手用力均勻地握住身體兩側(cè)的扶手,目視前方,保持正常呼吸。掃描人體完整點云數(shù)據(jù)如圖1所示。

1.2 樣本量的確定

樣本對象的選擇是實驗的關(guān)鍵,直接決定了數(shù)據(jù)的準(zhǔn)確與否[19]。采用統(tǒng)計學(xué)上的隨機(jī)抽樣方式,將隨機(jī)抽樣的數(shù)據(jù)樣本組成本研究的樣本對象。樣本量(N)的計算公式如下式所示:

N=μα×σX×A2(1)

式中:μα為某一置信水平下的置信界限的絕對值,σ為樣本標(biāo)準(zhǔn)差,X為樣本均值,A為相對誤差。

在科學(xué)研究中,一般采用95%的置信水平,即α=0.05、μα=1.96、A取2%。由式(1)計算得到,理論樣本容量為92人。為確保有效樣本量的數(shù)量,保證實驗數(shù)據(jù)的準(zhǔn)確性,本研究最終以217名年齡在18~25周歲的在校男大學(xué)生為研究對象,身高在160~190 cm,體重在50~80 kg。

通過對217個樣本的三維點云數(shù)據(jù)進(jìn)行點云缺失、錯誤站姿等奇異值處理,最終確定有效樣本數(shù)量為187個。最后通過[TC2]NX-16掃描14個新樣本的人體點云的正側(cè)面圖片作為驗證樣本,以證明本研究方法的可行性和精確度。

1.3 測量項目

本研究使用逆向工程軟件Imageware對掃描獲得的三維人體點云數(shù)據(jù)進(jìn)行分析與數(shù)據(jù)測量,三維人體點云被自動分為五個部分,包括軀干部、左臂、右臂、左腿和右腿。為去除頭部形態(tài)影響,首先將人體軀干部定義為去除雙臂后人體頸部至襠部的部分。其中,頸部是指人體側(cè)視圖中,頸部下頜線的曲率最大點(即顎頸點)所處的水平截面,命名為軀干部上端截面;襠部是指左、右坐骨結(jié)節(jié)最下點的連線與正中矢狀面的交點(即會陰點)[20]所處的水平截面,命名為軀干部下端截面。基于本研究提出的人體角度比例形態(tài)描述子研究可實現(xiàn)人體形態(tài)的量化[21],后續(xù)將對匹配對象的軀干部特征部位的寬度、厚度及角度值進(jìn)行測量,其中涉及的特征點包括側(cè)頸點(SNP)、后頸點(BNP)、肩點(SP)、腋下點(AP)、腰點(WP)、背點(RP)、臀凸點(HP)。

2 三維點云軀干部形態(tài)數(shù)據(jù)庫構(gòu)建

2.1 軀干部參數(shù)提取

為實現(xiàn)軀干部參數(shù)自動提取,本研究將上端截面定義為頸部下頜線的曲率最大點。曲率最大點的原理為曲線f(x)的曲率為某個點的切線方向角對弧長的轉(zhuǎn)動率,曲率越大表示曲線的彎曲程度越大。由圖2(a)可見,從曲線f(x)右端點開始,將曲線上一點處的曲率圓弧近似代替該點附近曲線弧,計算每個點的曲率半徑,A點的曲率半徑為R1,B點的曲率半徑為R2,C點的曲率半徑為R3,而R2的半徑最小,因此B點是ABC三點中曲率最大的點。根據(jù)王珊珊等[22]得到的前頸長的高度范圍和前期手工測量數(shù)據(jù)可知,頸部高度處于身高的85%~89%,如圖2(b)所示,直線Ha與直線Hb之間的脖頸曲線即為頸部所處范圍。頸部曲率最大點處的搜尋從P點開始計算曲線的曲率K,計算公式如下式所示:

K=y″(1+y″2)32(2)

式中:y′為曲線一階導(dǎo)數(shù),y″為曲線二階導(dǎo)數(shù)。

往下搜尋,當(dāng)某點所求曲率最大且二階導(dǎo)數(shù)小于零時,如圖2(b)中的點(曲率最大點)所處的水平位置即為軀干部上端截面。截取后的正側(cè)面軀干部如圖2(e)(f)所示。

為驗證人體點云正側(cè)面軀干部輪廓相似性,本研究將通過6個比例參數(shù)包括頸肩厚比(RTns)、頸腰厚比(RTnw)、胸腰寬比(RWbw)、胸腰厚比(RTbw)、胸臀寬比(RWbh)、胸臀厚比(RTbh)和6個角度參數(shù)包括肩斜角(Aα)、胸側(cè)角(Aβ)、臀側(cè)角(Aγ)、背入角(Aδ)、胸下凹角(Aε)、臀上凸角(Aξ)對軀干部量化表征,具體參數(shù)定義及提取和計算方法如圖3及表1所示。

2.2 三維點云軀干部形態(tài)數(shù)據(jù)庫構(gòu)建

為實現(xiàn)正側(cè)面軀干部角度半徑的自動提取,基于人體點云正側(cè)面軀干輪廓圖分別建立坐標(biāo)系。在人體軀干輪廓正視圖中,將人體肩臂部最外側(cè)兩點所在的直線定義為X軸,以肩臂部兩點中點為坐標(biāo)原點(O點),Y軸過O點垂直于橫軸,如圖4(a)所示;以側(cè)面軀干部輪廓的最小外接矩形為參考,外接矩形的中心即為側(cè)面軀干輪廓圖的坐標(biāo)原點(O′點),并以此建立軀干輪廓側(cè)視圖的坐標(biāo)系,如圖4(b)所示。

采用角度半徑描述人體輪廓曲線的基本原理是:人體輪廓可以看成是由一個個連續(xù)的點組成的一條曲線,而一條曲線定能找到其外接矩形的中心原點,從原點以某個角度發(fā)出的一條射線與曲線相交于一點Ai(xi,yi),如圖5所示。

根據(jù)兩點之間的距離計算公式如下式所示:

di=x2i+y2i(3)

該點Ai與原點的直線距離為角度半徑[23,24]。當(dāng)角度越小時,曲線所得到的角度半徑就越多,用來描述該曲線則越精確。

三維掃描儀獲得的人體點云,左右之間存在一定的差別。主要有兩個原因:一是由于測試者在測量過程中姿勢引起的誤差;二是由于個人的生活習(xí)慣等原因的影響。考慮到人體的對稱性,以及服裝合體性的需求,本研究將對人體正面輪廓作對稱處理。參照所建立的坐標(biāo)系,正面人體輪廓可表示為(x0,y0)(x1,y1)…(xn,yn)。根據(jù)對稱公式x=x2-x12,將縱軸作為對稱軸,令具有相同縱坐標(biāo)的兩點(x-1,y1)和(x1,y1)關(guān)于Y軸對稱,得到-x1-x-12,y1x1-x-12,y1,則圖4(a)的人體輪廓即為對稱后的輪廓。

為使得以角度半徑的輪廓描述能夠基本符合人體原始輪廓形態(tài),本研究以5°為間隔在人體正側(cè)面軀干部輪廓上提取角度半徑,如圖4所示。因軀干部的上端截面和下端截面不是人體真實輪廓,在提取角度半徑時,將自動剔除上、下端截面輪廓曲線的角度半徑值。由于已對截面曲線進(jìn)行了對稱處理,所以只提取人體右半邊軀干輪廓的角度半徑值為研究對象,最終提取了27個正面輪廓角度半徑值Rα,其中α代表所提取角度半徑的度數(shù)(α=0°,5°,10°,15°,…)。而側(cè)面輪廓不具有對稱性,最終提取了人體前后輪廓60個角度半徑值Rφ(φ=5°,10°,15°,…)。

由于圖像像素存在差異,將187位人體點云截面軀干部正側(cè)面輪廓的角度半徑系數(shù)做歸一化處理,得到最終由βi(i代表角度半徑的數(shù)量)所組成的點云截面軀干匹配數(shù)據(jù)庫。計算公式如下式所示:

βi=Rα2R0(i=1,2,…,26) βi=Rφ2R0(i=27,28,…,86)(4)

式中:Rα(α=5°,10°,15°,…)為軀干部正視圖的角度半徑值,Rφ(α=5°,10°,15°,…)為軀干部側(cè)視圖的角度半徑值,R0為軀干部正視圖中角度為0°時所測量的角度半徑值。

作為新樣本的待匹配對象14名被試者的正側(cè)面輪廓的角度半徑值處理方式同βi一致,命名為γi。

3 軀干形態(tài)匹配及驗證

3.1 軀干部形態(tài)匹配

Chai等[25]驗證了使用均方根誤差與其真實值的偏差在

5%以內(nèi),因此本研究將采用均方根誤差作為匹配衡量標(biāo)準(zhǔn)。

均方根誤差是預(yù)測值和真實值偏差的平方與觀測次數(shù)n比值的平方根。均方根誤差(RMSE)計算公式如下式所示:

RMSE=1n∑1i(γi-βi)2(5)

式中:n為一個樣本中的數(shù)據(jù)量,γi為14名被試者的角度半徑提取值,βi為三維點云軀干匹配數(shù)據(jù)庫的角度半徑。

為驗證本研究所提出方法的可行性,同時調(diào)用OpenCV框架中的MatchShape方法,該方法通過計算比較兩個輪廓的Hu矩來比較輪廓之間的相似性[26]。Hu矩值越小,說明兩個輪廓匹配越好,相似度越高。兩輪廓完全相同的結(jié)果是0,數(shù)值越大越不相似,最大值是1。

以14名被試者作為驗證對象,通過其提取的歸一化后的正側(cè)面角度半徑系數(shù),進(jìn)行點云截面輪廓的匹配。將每位被試者的均方根誤差數(shù)值和Hu矩值均進(jìn)行升序排列,結(jié)果顯示兩種方法匹配結(jié)果中僅有1個樣本的結(jié)果排序異常,準(zhǔn)確率達(dá)92.86%。通過比對兩個相似人體的輪廓和胸腰臀部的角度半徑的趨勢可以看出,軀干部正側(cè)面輪廓線重合度較高,且兩條趨勢線走勢大致相同,說明角度半徑的匹配方法可以較為準(zhǔn)確地匹配圖片與點云數(shù)據(jù),如圖6、圖7所示。

3.2 軀干部形態(tài)驗證

為進(jìn)一步驗證該匹配方法的準(zhǔn)確性,通過14名被試者相似軀干部形態(tài)匹配,獲得相似人體,并將兩者進(jìn)行對比,如表2所示。結(jié)果顯示,寬度、厚度比值的誤差在-0.053~0.48,角度的誤差在-3.29°~2.73°,且獨(dú)立樣本T檢驗結(jié)果顯示,Sig.值均大于0.05,說明相似體與被試者之間無顯著差異。因此,本研究所提出的匹配方法具有一定的可行性。

4 結(jié) 論

本研究提出了一種基于角度半徑的青年男體軀干部輪廓形態(tài)描述方法,并實現(xiàn)了人體點云數(shù)據(jù)之間相似性匹配。基于187名18~25周歲的青年男大學(xué)生的三維點云數(shù)據(jù),通過逆向工程軟件Imageware確定人體軀干部特征點,截取其正側(cè)面軀干部形態(tài),提取軀干部特征部位的寬、厚度及其角度。分別建立正側(cè)面軀干部坐標(biāo)系,提取27個正面角度半徑值和60個側(cè)面角度半徑值以建立點云圖片軀干形態(tài)數(shù)據(jù)庫。選取14名被試者進(jìn)行驗證,提取正側(cè)面角度半徑作為樣本。以歸一化后的點云截面數(shù)據(jù)庫和圖片提取值為匹配對象,采用均方根誤差法和OpenCV框架中的MatchShape法比對匹配結(jié)果。兩種匹配方法的結(jié)果顯示,13名被試者的軀干部正側(cè)截面輪廓形態(tài)匹配一致,準(zhǔn)確率達(dá)92.86%。為進(jìn)一步證明該2XKdAqAHlstvNHX4Qb9gbeCBgD536BsvI4gnZPdaTR4=匹配方法的準(zhǔn)確性,將人體特征部位測量參數(shù)進(jìn)行T檢驗,結(jié)果顯示Sig.值均大于0.050。本研究結(jié)果可為人體圖片與三維點云形態(tài)相似性分析提供一定的理論基礎(chǔ)。

參考文獻(xiàn):

[1]ANUTHARA G, SARAH K, KELLY C. AI digitalisation and automation of the apparel industry and human workforce skills[J]. International Journal of Fashion Design, Technology and Education, 2023, 16(3): 319-329.

[2]HASSAN A W, CHIHIRO W, YUJI T, et al. A new perspective on the textile and apparel industry in the digital transformation era[J]. Textiles, 2022, 2(4): 633-656.

[3]顧冰菲, 張健, 徐凱憶, 等. 基于聚類和形態(tài)參數(shù)的人體體型分析研究進(jìn)展[J]. 服裝學(xué)報, 2023, 8(4): 307-314.

GU B F, ZHANG J, XU K Y, et al. Research progress of human body shape analysis based on clustering and morphological parameters[J]. Journal of Clothing Research, 2023, 8(4): 307-314.

[4]顧依然, 潘力, 姚彤, 等. 東北地區(qū)青年女性胸部形態(tài)分類與回歸建模[J]. 絲綢, 2022, 59(7): 64-70.

GU Y R, PAN L, YAO T, et al. Classification and regression modeling of breast shape of young females in northeast China[J]. Journal of Silk, 2022, 59(7): 64-70.

[5]鐘澤君, 張貝貝, 徐凱憶, 等. 基于特征參數(shù)的青年女性乳房形態(tài)分析[J]. 紡織學(xué)報, 2022, 43(10): 148-154.

ZHONG Z J, ZHANG B B, XU K Y, et al. Research on breast shape of young females using characteristic parameters[J]. Journal of Textile Research, 2022, 43(10): 148-154.

[6]張建華, 劉珍, 張繼紅. 基于青年女性體型特征的日本新文化原型結(jié)構(gòu)修正[J]. 服裝學(xué)報, 2021, 6(5): 396-401.

ZHANG J H, LIU Z, ZHANG J H. Optimization of the Japanese new basic bodice pattern based on youth female body feature[J]. Journal of Clothing Research, 2021, 6(5): 396-401.

[7]倪世明, 白云龍, 蔣益群. 人體冠狀面輪廓曲線數(shù)學(xué)模型構(gòu)建與量化分析[J]. 絲綢, 2022, 59(3): 20-27.

NI S M, BAI Y L, JIANG Y Q. Mathematical model construction and quantitative analysis of human coronal profile curve[J]. Journal of Silk, 2022, 59(3): 20-27.

[8]ILARIA B, PAOLO C, MARCO P. WARP: Accurate retrieval of shapes using phase of fourier descriptors and time warping distance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2005, 27(1): 142-147.

[9]MOKHTARIAN F, ABBASI S, KITTLER J. Efficient and robust retrieval by shape content through curvature scale space[J]. Image Databases and Multi-Media Search, 1997: 51-58.

[10]ATTALLA E, SIY P. Robust shape similarity retrieval based on contour segmentation polygonal multiresolution and elastic matching[J]. Pattern Recognition, 2005, 38(12): 2229-2241.

[11]BELONGIE S, MALIK J, PUZICHA J. Shape matching and object recognition using shape contexts[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence, 2002, 24(4): 509-522.

[12]LING H B, JACOBS D W. Shape classification using the inner-distance[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2007, 29(2): 286-299.

[13]DALIRI M R, TORRE V. Robust symbolic representation for shape recognition and retrieval[J]. Pattern Recognition, 2008, 41(5): 1782-1798.

[14]劉建秀, 蘇文哲, 蘇治東. 基于輪廓關(guān)鍵點形狀上下文描述的BIM模型版本對比方法[J]. 圖學(xué)學(xué)報, 2023, 44(5): 1034-1040.

LIU J X, SU W Z, SU Z D. A comparison method of BIM model based on the shape context description of contour key points[J]. Journal of Graphics, 2023, 44(5): 1034-1040.

[15]李彩霞, 翟仁健, 杜佳威, 等. 一種改進(jìn)形狀上下文特征匹配的線要素Morphing方法[J]. 測繪科學(xué)技術(shù)學(xué)報, 2019, 36(6): 654-658.

LI C X, ZHAI R J, DU J W, et al. A linear feature Morphing method by improved shape context matching[J]. Journal of Geomatics Science and Technology, 2019, 36(6): 654-658.

[16]吳建立. 基于改進(jìn)形狀上下文算法的形狀匹配研究[D]. 馬鞍山: 安徽工業(yè)大學(xué), 2017.

WU J L. Study of Shape Matching Based on Modified Shape Context Algorithm[D]. Maanshan: Anhui University of Technology, 2017.

[17]李曉. 基于上下文的形狀匹配算法研究與實現(xiàn)[D]. 武漢: 華中師范大學(xué), 2012.

LI X. Research and Implementation of Shape Matching Based on Shape Context[D]. Wuhan: Central China Normal University, 2012.

[18]陳慧靜, 夏小玲. 基于形狀上下文的人臉匹配算法[J]. 計算機(jī)工程, 2009, 35(3): 208-210.

CHEN H J, XIA X L. Human face shape match algorithm based on shape context[J]. Computer Engineering, 2009, 35(3): 208-210.

[19]王永波. 基于3D人體測量的江浙地區(qū)青年男性腰臀部特征研究[D]. 無錫: 江南大學(xué), 2019.

WANG Y B. Study on Characteristics of Jiangsu and Zhejiang Young Male’s Waist-Hip Based on 3D Body Measurement[D]. Wuxi: Jiangnan University, 2019.

[20]鮑陳, 繆永偉, 孫瑜亮, 等. 基于散亂點云的三維人體自動測量[J]. 紡織學(xué)報, 2019, 40(1): 120-129.

BAO C, MIAO Y W, SUN Y L, et al. Automatic measurement of three-dimensional human body based on scattered point cloud[J]. Journal of Textile Research, 2019, 40(1): 120-129.

[21]王婷. 青年女性頸肩部形態(tài)自動識別與建模研究[D]. 杭州: 浙江理工大學(xué), 2021.

WANG T. Automatic Recognition and Modeling of Young Women’s Neck-shoulder Shape[D]. Hangzhou: Zhejiang Sci-Tech University, 2021.

[22]王珊珊, 王鴻博. 基于三維人體測量的江浙在職男青年頸部形態(tài)[J]. 紡織學(xué)報, 2013, 34(10): 131-136.

WANG S S, WANG H B. Neck morphology research of on-the-job young men in Jiangsu and Zhejiang areas by means of three-dimensional anthropometry[J]. Journal of Textile Research, 2013, 34(10): 131-136.

[23]WANG T, GU B F. Automatic recognition and 3D modeling of the neck-shoulder human shape based on 2D images[J]. International Journal of Clothing Science and Technology, 2021, 33(5): 780-794.

[24]HLAING E C, KRZYWINSKI S, ROEDEL H. Garment prototyping based on scalable virtual female bodies[J]. International Journal of Clothing Science and Technology, 2013, 25(3): 184-197.

[25]CHAI T, DRAXLER R R. Root mean square error (RMSE) or mean absolute error (MAE)[J]. Geoscientific Model Development Discussions, 2014, 7(1): 1525-1534.

[26]HUANG C X, CHEN D, TANG X S. Implementation of workpiece recognition and location based on opencv[C]//2015 8th International Symposium on Computational Intelligence and Design (ISCID). Hangzhou: IEEE, 2015.

Morphological similarity matching of young male trunks based on angular radius

ZHANG Chi, WANG Xiangrong

SHENG Xibin1, GU Bingfei1,2,3

(1.School of Fashion Design & Engineering, Zhejiang Sci-Tech University, Hangzhou 310018 China; 2.Zhejiang Provincial Research Center of Clothing Engineering Technology, Hangzhou 310018, China; 3.Key Laboratory of Silk Culture Heritage and Products Design Digital Technology, Ministry of Culture and Tourism, Hangzhou 310018, China)

Abstract: With the continuous development of the world economy and people’s living level, the demand for clothing comfort and fitness has become increasingly prominent. In the process of online clothing consumption, it is difficult for consumers to try on and choose suitable clothes. How to analyze the human body shape quickly and accurately is an urgent problem to be solved. Increasing attention has been paid to non-contact two-dimensional anthropometry, with the recognition and matching of human body contour being the key research direction. Many domestic and foreign scholars have carried out substantial studies, and put forward a variety of methods such as RBF neural network, cubic spline function, least square method and Fourier coefficient, but these methods can not fuzzy match the human body shape. The shape context method has also been used for shape matching. Although this method can improve the accuracy and speed of matching, it is still difficult to match human form with the shape context.

Therefore, this study focused on how to describe human body contour shape quantitatively based on three-dimensional point cloud data of human body. An angular radium-based contour description method was proposed. One hundred and eighty-seven young male college students aged 1825 were selected as research objects, and three-dimensional point cloud data were obtained by three-dimensional scanning method. Then the reverse engineering software was used to identify the feature points of the human trunk and intercept the silhouette of the front and lateral trunk. The frontal and lateral trunk coordinate systems were established respectively, and 27 frontal and 60 lateral angular radii were extracted to establish the frontal and lateral trunk form angular radii database based on three-dimensional human point cloud. In order to obtain the human body with a similar shape, the angular radius was used as the reference to judge whether the cross-section shape of the characteristic parts was consistent, and the similarity was quantified by the root mean square of the shape description index. Finally, the angular radius value extracted by 14 subjects was taken as the object to be matched, and the root-mean-square error method was used to achieve the similarity matching of the torso shape of the three-dimensional point cloud cross-section. The effectiveness of the method was verified by the MatchSharp operator in the OpenCV framework. The results of the two matching methods showed that the 13 subjects matched the frontal and lateral sections of the trunk with an accuracy of 92.86%. To further prove the accuracy of the matching method, the measurement parameters of human characteristic parts were tested by T test. The results showed that the error range of the ratio of width and thickness was between -0.053 and 0.48, and the error of the angle ranged from -3.29° to 2.73°, with Sig. values being greater than 0.05. Therefore, the matching method proposed in this study has certain feasibility.

This study provides a new way for human body shape similarity matching, theoretical basis and technical support for human body 3D point cloud based morphological analysis and 3D reconstruction research, and can be further used for 3D virtual reconstruction based on human body photos.

Key words: angular radius; human contour; trunk morphology; morphological similarity; young male; 3D point cloud

主站蜘蛛池模板: 精品无码国产一区二区三区AV| 日韩色图区| 国产欧美综合在线观看第七页| 亚洲国产综合精品一区| 日韩av无码精品专区| 国产欧美专区在线观看| 国产亚洲男人的天堂在线观看 | 香蕉久久国产精品免| 黄色三级毛片网站| 尤物精品国产福利网站| 日韩精品一区二区三区swag| 久青草免费在线视频| 亚洲无码高清一区二区| 亚洲无码高清视频在线观看 | 亚洲有无码中文网| 亚洲成人免费在线| av手机版在线播放| 另类欧美日韩| 国产精品浪潮Av| 国产人成午夜免费看| 国产一级特黄aa级特黄裸毛片| 成人在线天堂| 亚洲国产成人超福利久久精品| 国产情侣一区| 激情综合婷婷丁香五月尤物| 日韩av无码精品专区| 一区二区三区高清视频国产女人| 丝袜高跟美脚国产1区| 精品免费在线视频| 成人国产精品2021| 欧美精品一二三区| 欧美日韩在线国产| 91av国产在线| 国产打屁股免费区网站| 这里只有精品在线播放| 综合色在线| 亚洲无线国产观看| 天天综合网亚洲网站| a毛片免费看| 国产真实乱了在线播放| 欧美a在线| 中文字幕第4页| 日本午夜影院| 国产精品99久久久久久董美香| 无码av免费不卡在线观看| 91久久国产综合精品女同我| 日韩无码精品人妻| 国产97公开成人免费视频| 亚洲色无码专线精品观看| 日韩欧美中文字幕一本| 国产精品视频第一专区| 高潮毛片免费观看| 大学生久久香蕉国产线观看 | 亚洲天堂视频在线观看| 国产精品真实对白精彩久久 | 国产微拍一区二区三区四区| 亚洲精品黄| 多人乱p欧美在线观看| 国产噜噜噜| 在线国产你懂的| 久久夜夜视频| 国产成人亚洲无码淙合青草| 国产亚洲视频免费播放| 亚洲第一黄片大全| 亚洲免费三区| 综合成人国产| 国产午夜一级毛片| 国产真实乱了在线播放| 欧美日韩亚洲综合在线观看| 国产精品毛片一区| 亚洲国产成人久久77| 亚洲色无码专线精品观看| 亚洲国产无码有码| 国产成人久久777777| 一本色道久久88| 日本午夜精品一本在线观看| 伊人久综合| 欧美爱爱网| 国产高清不卡| 国内嫩模私拍精品视频| 欧美不卡视频在线观看| 欧美国产日韩一区二区三区精品影视|