999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

連續形變圖像動態相似信息的自適應識別仿真

2021-11-19 11:15:40莊慶華
計算機仿真 2021年10期
關鍵詞:特征區域信息

李 麗,莊慶華

(長春工業大學人文信息學院,吉林 長春 130000)

1 引言

圖像識別是圖像信息處理過程中的基本操作,在智能導航、視頻監控等多種領域均發揮著重要作用。圖像識別技術是鎖定圖像目標個體的先決條件,對于運動圖像來講,也是判斷圖像動態相似信息的依據[1],對能否成功跟蹤目標的動態相似信息有決定性的影響[2]。但目前多數圖像動態相似信息的識別,僅限于外部形狀不隨運動發生改變的剛性物體,適應度較差。

為解決該問題,相關學者也做出了一些研究。文獻[3]提出一種基于雙特征融合與自適應提升的連續運動圖像識別算法。該算法通過時空上下文關系與視覺系統特質得到圖像序列特征,同時利用卷積神經網絡處理圖像序列。融合STC特征與CNN特征,實現圖像動態信息的識別。該算法雖然能夠提取連續形變圖像的動態信息,但該方法耗時較長,無法高效率應用。文獻[4]提出一種十字交叉窗口下動態連續形變圖像信息立體識別算法。構建圖像形變補償代價計算函數,以圖像的距離和色彩信息構建自適應十字交叉窗口,據此對圖像視差進行全局優化,完成連續形變圖像的動態相似信息的識別,但該方法適應度較差,導致其識別精度偏低。

針對傳統方法的不足,論文提出新的基于特征矩陣的動態相似信息自適應識別方法。利用圖像預處理凸顯出圖像最原始特質,剔除冗余信息。采取參照原本像素信息與灰度值融合方式更新像素。計算圖像特征矩陣相似度,實現基于特征矩陣的動態相似信息自適應識別。仿真驗證了提出方法可以大幅提升識別精度及相似信息識別的完整度。

2 連續形變圖像動態相似信息的自適應識別

2.1 圖像預處理

論文通過圖像預處理凸顯出圖像最原始特質,剔除冗余信息。

步驟2:針對圖像內隨機像素點x(n),將x(n)聚合在最接近其像素值的分類內,然后使用式(1)迭代計算全部聚類C的中心點顏色值ci。

(1)

(2)

步驟4:通過計算出的聚類中心差別水準,以此預判兩種類別是否需要合并。假設兩種類別的中心差別較小,則進行合并。

步驟5:將上述步驟全部完成后,再重新計算顏色空間中每個聚類的中心值ci

(3)

式中,Li代表完成所有步驟后所得出的第i類的像素值。

若連續形變圖像的像素總和為M,則得出的圖像預處理后的結果如式(4)

(4)

初始圖像的像素值均采取式(4)中的向量值進行交替,建立出精簡的特征圖像[5]。

2.2 連續形變圖像可變光強區域劃分

針對連續形變圖像的運動特征,提出方法共分為兩步:第一步將運動區域范圍和靜止區域范圍進行區分,即劃分背景與前景[6];第二步使用基于背景幀的像素替換方式提取出需要識別的目標樣本,為后續動態相似信息自適應識別奠定基礎。

選擇鄰近的兩幀連續形變圖像Ik(i,j)、Ik-1(i,j)進行差分運算,可標記為IZ(k,k-1)=|Ik-Ik-1|。其次目前幀Ik(i,j)和背景幀Bk(i,j)采取差分運算,可標記為IBk=|Ik-Bk|。

初始階段區分運動區域范圍,將IZ(k,k-1)圖像預處理后的結果標記為B1,IB(k,k-1)圖像預處理后的結果標記為B2,同時滿足B3=B1∪B2。當B3的灰度值為0時,將其背景像素點標記為Bb,灰度值為245時,其運動像素點標記為Bm。

在連續形變狀態下的運動目標,其幀間差分極易發生空洞現象[7],而采用背景差分方式則能夠相對完好地劃分運動區域范圍。但該方式在光線及其它外界成分的作用下會生成多余的噪點。因此,這兩種方法進行運算時,需對B2進行腐蝕的形態學運算,可以最大限度避免噪點對區域范圍判定過程中產生的不良影響。

運用幀間差分方法能夠較為完全地測量運動區域范圍向外延伸的部分,因此在運算B1和B2時,可以填補B2進行腐蝕計算時丟失的外部邊際區域。通過此種方法,將最終計算的結果控制在接受范圍內[8-9],僅在現實運動區域范圍外存在一些外部因素導致的雜點,不影響結果的可靠性。

計算背景圖像的平均灰度值,其區域范圍是Bb,可描述為

(5)

其中x、y為目標范圍的起點與終點。

算出當前幀的平均灰度值,計算的區域范圍是Bb,可描述為

(6)

在此處將平均灰度值的差當成選擇運動區域范圍的參照閾值,將背景差分域進行再次取樣,可表達為式(7)

if|Ik(i,j)-Bk-1|

then(x,y)∈Bb

else(x,y)∈Bm

(7)

式中,Bb代表背景區域范圍,Bm代表運動區域范圍。再次取樣是為了實現對外部因素干擾的二次篩選。

背景區域范圍按照權重進行更新,如式(8)

Bk=(1-a)·Bk-1+aIk

(8)

在連續形變圖像中,考慮其被遮蓋的范圍不能使用當前幀的像素動態信息進行更新,所以采取參照原本像素信息與灰度值融合方式實施更新體系架構,運動區域范圍根據權重及平均灰度值差完成更新,如式(9)

Bk=(1-b)Bk-1+bIk(T1-T2)

(9)

至此完成背景區域的更新,為圖像后處理奠定基礎。

2.3 基于特征矩陣的動態相似信息自適應識別

經過上述處理過程,進行基于特征矩陣的圖像動態相似信息識別。假設Q、I分別為兩個特征矩陣,其大小均為m×n,Q表示樣本矩陣,I表示對象矩陣,兩個矩陣間的相似度可表述為sim(I,Q)。

將樣本矩陣Q和對象矩陣I描述為行向量表達模式:I=(I1,I2,…,Iα,…,Im)T,其中Iα代表對象矩陣I的一個行向量;Q=(Q1,Q2,…,Qβ,…,Qm)T,其中Qβ代表樣本矩陣Q的一個行向量[10]。連續形變圖像的特征矩陣動態相似度計算可通過以下方法實現:

在對象矩陣中,每個行向量需要在樣本矩陣中尋找一個與自身最接近的行向量行號,若沒有對應的接近行向量,則標記為零,以此構成一個相似行向量。從本質上看,相似行向量就是對象矩陣的代替矩陣。再將相似行向量作為一個一維特征向量,樣本矩陣便是源自規范行向量為元素所構成的一個一維向量[11]。

以下是相似行向量的形成及計算連續形變圖像特征矩陣相似度的具體分析。

將對象矩陣I中的行向量Iα(α=1,2,…,m)和樣本矩陣Q中的行向量Qβ進行對比,同時估算DP匹配距離,可以得出數值m的DP匹配距離最低值,可描述為dmin(α,k)=min{dDP(α,β)|β=1,2,…,m}。在dmin(α,k)處于行向量相同預判閾值Tr范圍內的情況下,Iα可以當作與樣本矩陣的行向量Qk是最為靠近的。

用向量SV[1··m]記錄對象矩陣的每一個行向量Iα,在樣本矩陣中可以尋找到最為接近的行向量行號,此處α=1,2,…,m,可用式(10)表達,稱其是相似行向量

(10)

值得注意的是,在相似向量SV內,隨機選取兩個元素α1、α2。若α1≠α2,并且SV[α1]≠0,則應該與式(11)的條件相對應。通俗地說,如果在對象矩陣I中,兩個互不相同的行向量不可以挑選樣本矩陣Q內同一個行向量作為最接近的行向量,表達為

(?α1)(?α2)(SV[α1]≠SV[α2])

(11)

能夠看出,對象矩陣I可以使用相似行向量SV表示,以此將對象矩陣I及樣本矩陣Q的相似度計算變換成計算樣本矩陣和SV的一維行向量(Q[1],Q[2],…,Q[m])間的DP匹配距離問題。由于時間消耗等問題,則需要將特征矩陣相似度sim(I,Q)的計算劃分為兩種狀態[12]。

設置零數值機率來判斷閾值Tp,要收集整理相似行向量SV內包含的零元素數量,若零的占據比例大于固定閾值Tp,則可以立刻斷定I和Q互不相似,這種情況下sim(I,Q)=0。否則需按照向量DP匹配距離的方式算出一維向量(SV[1],SV[2],…,SV[m])與(Q[1],Q[2],…,Q[m])的DP匹配距離。這兩個向量的元素距離d(SV[μ],υ)是根據式(12)判定的。

(12)

其中,μ=1,2,…,m且υ=1,2,…,m。

如果通過計算得出的DP匹配距離可描述為dDP(SV,Q),則兩個連續形變圖像的動態矩陣相似度可表達為

Sim(I,Q)=1-dDP(SV,Q)

(13)

在實際的連續形變圖像的動態相似信息自適應識別中,多數圖像和樣本圖像之間有較大區別,這是因為使用了零數值機率判斷。多數情況下不用算出Sim(I,Q)就能夠識別圖像的動態相似信息,進而提升了自適應識別效率。至此,完成動態相似信息的識別。

3 仿真與分析

為驗證研究的有效性,設計以下仿真。實驗的硬件環境是Pentium(R)4CPU 2.8 GHz,內存為512MBit。軟件環境是Windows XP、MATLAB R2016b。實驗用到的視頻圖像來源于某市上午時段交通路口監控,幀頻率為20fps,大小為320×240。交通車輛視頻圖像具有連續形變特性,且信息種類較多,以此類圖像作為實驗測試對象是適合的。實驗以文獻[3]提出的基于雙特征融合與自適應提升的連續運動圖像識別算法、文獻[4]提出的基于十字交叉窗口的動態連續形變圖像信息立體識別算法作為對照組,與研究方法進行對比,具體實驗過程如下:

3.1 不同方法的識別完整度與效率的協調效果

為驗證提出方法對連續形變圖像動態相似信息的識別完整率與效率的協調效果,基于上述實驗環境,對比文獻[3]、文獻[4]方法的識別效率以及平均識別時間,且為簡化實驗輸出數據,將識別完整率進行歸一化處理,具體實驗結果如圖1所示。

圖1 識別效率對比圖

由圖1實驗結果可知:隨著對視頻連續變形圖形識別過程中,提出方法識別完整率接近1,遠高于其它兩種方法;且研究方法的平均識別速度為0.4s,遠低于文獻[3]和文獻[4]方法,說明提出方法的識別效率更佳。其原因是基于特征矩陣的DP匹配距離計算方法更充分考慮了圖像主顏色區域的空間位置特征,能加快識別連續形變圖像的動態相似信息。該方法的識別速度快、識別完整率高,更有利于視頻圖像動態相似信息識別。

3.2 不同方法的相似性信息識別精準度

為進一步驗證提出方法的圖像相似信息識別精確度,同樣基于上述實驗環境,對視頻監控連續圖像進行相似信息識別。視頻圖像為連續形變圖像,其相似信息為后幀圖像會發生相對變化的物體特征,對于該圖像來說,相似度信息為馬路旁的人群以及車輛。將提出方法與兩種傳統方法對同一實驗樣本進行精度對比,結果如圖2。

圖2 文獻[3]方法的相似性信息識別效果

圖3 文獻[4]方法的相似性信息識別效果

圖4 所提方法的相似性信息識別效果

根據實驗結果可知,文獻[3]方法與文獻[4]方法對圖像的相似信息識別均出現了較明顯誤差,路口的非動態特征如路標桿、電線桿、斑馬線等均不屬于變化信息,不會隨圖像的連續形變發生位移。相比之下,研究方法識別精度更高,對連續形變圖像的相似信息進行完整識別。

4 結束語

論文為解決目前連續形變圖像相似信息識別方法適應性較差問題,提出一種基于特征矩陣的自適應識別方法。首先通過圖像預處理剔除冗余信息,在此基礎上更新連續形變圖像像素動態信息。計算連續形變圖像特征矩陣相似度,實現動態相似信息自適應識別。經過仿真,結果表明提出方法與傳統方法相比具有極強的優越性,實用性高,為圖像動態相似信息識別提供有利科學依據。

猜你喜歡
特征區域信息
如何表達“特征”
不忠誠的四個特征
當代陜西(2019年10期)2019-06-03 10:12:04
抓住特征巧觀察
訂閱信息
中華手工(2017年2期)2017-06-06 23:00:31
關于四色猜想
分區域
基于嚴重區域的多PCC點暫降頻次估計
電測與儀表(2015年5期)2015-04-09 11:30:52
展會信息
中外會展(2014年4期)2014-11-27 07:46:46
線性代數的應用特征
河南科技(2014年23期)2014-02-27 14:19:15
區域
民生周刊(2012年10期)2012-10-14 09:06:46
主站蜘蛛池模板: 久久精品电影| 在线免费无码视频| 美女被狂躁www在线观看| 国产激爽爽爽大片在线观看| lhav亚洲精品| 一本久道久久综合多人| 国产精品一区二区无码免费看片| 久久精品人人做人人| 国产精品短篇二区| 成人毛片免费观看| 国产精品高清国产三级囯产AV| 婷婷亚洲天堂| 一本色道久久88综合日韩精品| 精品国产一二三区| 国产精品护士| 久久国产拍爱| 国产情精品嫩草影院88av| 老司机aⅴ在线精品导航| 夜夜高潮夜夜爽国产伦精品| 99国产精品国产| 天天色综网| 久久精品无码一区二区国产区| 91精品网站| 亚洲永久视频| a级毛片网| 亚洲a级毛片| 999国内精品视频免费| 国产日韩欧美黄色片免费观看| 亚洲无线观看| 亚洲免费毛片| 色香蕉影院| 夜夜爽免费视频| 欧美精品啪啪| 中文国产成人精品久久| 亚洲无码高清视频在线观看| 亚洲人成网18禁| 无码精油按摩潮喷在线播放| 国产高清在线观看91精品| 久一在线视频| 91久久大香线蕉| 亚洲精品在线影院| a毛片在线播放| 亚洲精品动漫| 成人福利在线看| 综合久久久久久久综合网 | 亚洲国产欧美国产综合久久 | 久久免费成人| 91高清在线视频| 精品91自产拍在线| 日韩欧美国产中文| 欧美亚洲国产精品久久蜜芽| 波多野吉衣一区二区三区av| 国产又爽又黄无遮挡免费观看| 国产区福利小视频在线观看尤物| 三区在线视频| 日本欧美午夜| 中文字幕欧美日韩| 日本精品一在线观看视频| 91福利片| AV片亚洲国产男人的天堂| 毛片在线区| 欧美亚洲国产日韩电影在线| 综合亚洲网| 亚洲成人网在线观看| 亚洲无码久久久久| 欧美天堂在线| 国产激爽爽爽大片在线观看| 欧美精品在线观看视频| www.国产福利| 久久综合婷婷| 日韩黄色精品| 日韩麻豆小视频| 亚洲V日韩V无码一区二区| 亚洲日韩精品欧美中文字幕| 91视频99| 中文字幕欧美日韩高清| 久久精品这里只有精99品| 亚洲码一区二区三区| 久久福利片| 亚洲成年网站在线观看| 成人免费黄色小视频| 成人一区在线|