曹昭睿, 郝永平, 劉萬成, 白帆, 孫顥洋, 張慧, 李宇海
(1.沈陽理工大學 裝備工程學院, 遼寧 沈陽 110159; 2.光電信息控制和安全技術重點實驗室, 天津 300308;3.沈陽理工大學 機械工程學院, 遼寧 沈陽 110159)
隨著機器視覺技術與人工智能技術的不斷發展,新一代智能武器系統對廣域成像與快速探測的需求日趨增多。目前,常規視覺成像系統均為單鏡組- 單光電探測器構型,受到光學成像關系制約,這類單孔徑成像系統為實現大視場探測能力,只能以犧牲探測距離和擴大系統口徑作為代價。但若想在擴大探測視域的前提下進一步實現系統小型化,這種構型則已經到達了優化極限。故對于無人機、導彈、智能彈藥等平臺而言,傳統單孔徑成像設備難以兼顧其對體積小、視場大、探測距離遠的成像需求,無法從根本上提升上述武器的視覺感知能力。
為了能夠還原真實環境中的高分辨率大視場圖像信息,研究人員將技術較為成熟的獨立相機組作為每個子眼通道構型,采用多通道相機組陣列的方式構建一種新型仿生復眼。文獻[5]研究了一種3×3多相機陣列的仿生復眼及其圖像拼接技術,在完成復眼探測器設計后,基于尺度不變特征變換(SIFT)與隨機抽樣一致性(RANSAC)算法,實現整體場景的無盲區拼接,能夠滿足輕型武器系統的視覺探測需求;文獻[6]以柔性線路板(FPC)和現場可編程門陣列(FPGA)作為硬件基礎,設計了19眼曲面陣列成型仿生復眼系統,其整體重量約為1 kg,能夠在180°×120°的大視場內采集并拼接多路圖像,具有較強的實用性。由于多相機陣列復眼的特殊成像結構,需要利用圖像拼接算法將各通道所采集的圖像還原成全局環境圖像,以便后續觀測和識別計算。故在該類型復眼基礎上,文獻[7]采用多相機球面陣列的方式,設計了一種全景立體成像復眼系統,并利用加速魯棒特征(SURF)對多通道圖像進行配準,實現多角度圖像的同一視平面映射于全景圖像重構;文獻[8]在SIFT算子基礎上,通過采用歐氏距離法和隨機抽樣一致性算法對特征點對進行篩選,配合加權平均法融合圖像,完成了九目式復眼的圖像拼接與目標定位;文獻[9]以FPGA為處理核心,利用Harris角點檢測算法進行圖像配準,重建出復眼系統的全局高分辨率圖像。
多相機陣列型復眼在成像清晰度與大視場探測能力上有良好表現,但其所攜帶的成像設備較多,其質量、體積與所產生的圖像數據計算量較大。對于小型無人機、低速彈箭、智能彈藥等載荷空間與計算能力受限的武器平臺而言,多相機陣列復眼無法滿足上述平臺對探測系統體積小、質量輕、易搭載的需求。同時,傳統基于單像素匹配與對準的圖像拼接算法雖然能夠較精準地對多視角圖像進行拼合,但這些方法的圖像計算量較大且計算耗時較長,在配合多相機陣列型復眼進行探測時,該類型拼接算法的開銷將倍增,無法滿足有實時探測需求的任務。因此,為了能夠提升仿生復眼探測系統的泛用性,必須對其光學結構與圖像處理算法進行優化設計,在確保廣域清晰成像的前提下,實現復眼系統的緊湊化與圖像拼接算法的高效化。
針對當前多相機陣列復眼在光學結構與算法開銷方面存在的問題,為滿足陸行、飛行小型無人機與低速視覺制導彈箭對緊湊型大視場視覺探測器的需求,本文開展了折疊反射式(以下簡稱折反式)仿生復眼的成像原理研究,并依托該光學結構設計了一種基于區域結構相似性的圖像快速拼接算法。本文的主要工作與創新點為:1)開展了多視角光學系統的并行分區成像研究,通過光信道折疊反射實現多像面歸一,解決復眼系統對多光電探測器的依賴,降低了復眼成像系統的體積、成本與圖像數據生成量;2)提出一種基于區域結構相似性的折反式復眼圖像快速拼接算法,在低尺寸特征圖上進行遞進快速拼合,完成相鄰子眼重疊視域內的重復成像信息過濾;3)利用折反式復眼模擬樣機成像系統,配合目標識別卷積神經網絡,驗證折反式復眼的圖像快速拼接與目標識別能力。基于上述內容,所提出的折反式仿生復眼成像構型具有結構緊湊、探測視域廣的特點,配合所設計的多通道圖像拼合與目標識別網絡,可實現大視場下全局圖像快速重構與目標實時精確識別,滿足了仿生復眼系統的輕量化、低成本化、高效化與智能化設計需求。
三目式光路折反成像結構如圖1所示。折反式復眼同一成像層級由相鄰通道下主光軸互相垂直、且位于同一平面的3個子眼鏡組以及1個光電探測器構成。位于層級中心、光路垂直于光電探測器靶面且不需光路折反的為中心子眼;位于層級兩端、需要進行光路折反的為左、右邊緣子眼。各子眼系統在光學結構上相同,且等效光程保持一致。經過光路折反后,同一層級下的3個子眼像平面將與光電探測器靶面重合。考慮到復眼內部構件的易安裝性、抗振動與過載能力,折反式復眼利用換向棱鏡實現邊緣子眼的光路反射與折疊。換向棱鏡的一端將與光電探測器靶面進行耦合,另一端用于接收對應子眼通道的光信號。成像時同層級子眼將光電探測器靶面進行三等分分區,并同步對所對應的成像分區進行映射。對于多維度成像與探測需求,可對折反式復眼的成像層級進行擴充,構建多層級成像結構。由于各層級間光學結構與成像原理相同,且單層級結構能夠滿足本文面向的使用環境需求,故本文僅對單層級緊湊型折反式仿生復眼成像系統進行研究。圖1中為子眼半視場角,為相鄰子眼主光軸夾角,為換向棱鏡與光電探測器靶面間距。

圖1 三目式光路折反成像結構Fig.1 Trinocular catadioptric imaging structure
同層級內中心子眼與邊緣子眼將對同一個光電探測器靶面進行分區成像,該過程中邊緣子眼在利用換向棱鏡進行光路折反時,需保證經棱鏡折反后的像面與中心子眼像面共面,并與光電探測器靶面的對應區域重合。為避免同層級多路子眼同步映射時產生光路干涉,需要依照不同子眼所在位置與探測區域,對光電探測器靶面進行區域劃分,使對應的子眼僅在該區域內成像。為最大化單光電探測器靶面利用率,同層級各子眼對應光電探測器的靶面分區方式如圖2所示。圖2中,、分別為光電探測器靶面寬與高。

圖2 各通道對光電探測器靶面分區Fig.2 Segmentation of the photodetector’s area
為保持經換向棱鏡偏折光路后的邊緣子眼像面完整,且不損失邊緣視場的成像信息,棱鏡尺寸與光電探測器靶面尺寸滿足以下關系:

(1)
式中:、分別為換向棱鏡高與直角邊長。由于中心子眼與左、右邊緣子眼在光學結構上一致,為使中心子眼與左、右邊緣子眼像面能夠重合,中心子眼的后工作距離需要具有足夠的空間,以使同結構的邊緣子眼能夠容納換向棱鏡進行光路折反,則子眼的光學結構存在以下約束:

(2)
式中:為子眼系統工作距離;為有效焦距。為防止復眼出現視角盲區,相鄰子眼間需要具有一定的視域重疊。同時為確保系統整體光學性能的提升,視域重疊區域不能過大,則子眼全視場角2與相鄰子眼主光軸夾角間應滿足:
<2≤2
(3)
對于不同的探測環境,折反式復眼的光電探測器成像性能需要結合不同任務需求進行調整。復眼成像系統截止頻率與光電探測器像元尺寸間關系表示為
=1 0002
(4)
考慮到小型無人設備在機器視覺探測任務中的需求與限制,根據光學系統設計原理與上述折反式復眼成像幾何關系,解得如表1所示的單通道子眼光學設計參數與約束條件。

表1 單通道子眼光學設計參數與約束條件
表1將作為折反式復眼中子眼光學系統的初始設計條件與性能驗證指標,以Zebase光學模型庫中廣角光學成像系統作為基礎構型,利用ZEMAX軟件對中心子眼與邊緣子眼進行光學設計與優化。建立中心子眼與邊緣子眼的光學成像模型后,本文將對同層級下各子眼的陣列位置進行確定,實現復眼系統整體光學結構的緊湊化與大視場化。對各子眼通道建立光學等效模型,得到如圖3所示的同層級中心子眼與邊緣子眼布局關系。

圖3 中心子眼與邊緣子眼布局關系Fig.3 Layout structure of the central and border sub-eyes
建立以中心子眼和邊緣子眼主光軸構成的復眼陣列空間坐標系,其原點為各通道主光軸交點。中心子眼等效模型中心距點的陣列距離為,邊緣子眼等效模型中心距棱鏡入射面的陣列距離為。對于縱向主光軸單側的布局關系,邊緣子眼等效模型中心距點的陣列距離為
=+2
(5)
折反式復眼視域盲區存在最遠盲點,該點位于相鄰通道的視域邊緣交點處。根據圖3中所示的幾何關系,最遠盲點在復眼陣列空間坐標系中位置(,)可表示為

(6)
經整理,緊湊型折反式仿生復眼最遠盲點位置為

(7)
根據不同探測任務中成像視場角、探測距離、識別目標尺寸、物方分辨率等成像需求,同時結合搭載平臺對復眼系統質量、體積、功耗等約束條件,即可確定該環境下折反式復眼系統的子眼光學結構與各通道空間陣列方式,完成折反式復眼的光學成像模型構建。
傳統復眼中各子眼主光軸不共面,需要進行像素級的多維度圖像匹配拼接,這一過程將產生大量的計算開銷,嚴重影響了復眼探測器的圖像實時反饋能力。故本文針對這一問題,基于所提出的單層級折反式仿生復眼成像系統,提出一種利用區域結構相似性的快速圖像拼接算法,同時配合含有殘差層的深度卷積神經網絡,以實現全局圖像的快速拼接與目標精確識別。折反式仿生復眼圖像拼接與目標識別網絡(CMRNN)結構如圖4所示。

圖4 CMRNN結構示意Fig.4 Network structure of CMRNN

由于折反式復眼的特殊成像結構,各子眼主光軸已共面,故圖像拼接時只需進行單方向匹配,降低了拼合時數字圖像矩陣計算維度。本文在折反式復眼的光學成像結構基礎上,設計了一種基于區域結構相似性的特征圖快速拼接算法,其核心結構如圖5所示。

圖5 IPP結構示意Fig.5 IPP structure
在同一時刻下,折反式復眼系統將通過左側邊緣子眼、中心子眼和右側邊緣子眼,分別采集對應探測域內的原始圖像、、。相鄰子眼下的原始圖像將同步輸入至IPP中進行重編碼,提取原始圖像中的關鍵像素信息并降低圖像尺寸,減少后續拼接過程的數據計算量。
折反式復眼各子眼均會生成尺寸為×的原始圖像,在面對不同的探測任務時,折反式復眼中子眼光學結構與鏡組參數需要進行調整,導致各通道成像尺寸與光電探測器靶面尺寸不固定,即單通道采集的原始圖像尺寸×為變量。由于拼合過程中需保證每個待拼接特征圖的尺寸一致,為了使IPP能夠適配不同光學結構的子眼,本文將利用自適應池化層首先對任意×尺寸的原始成像進行整形,統一輸出尺寸為×的特征圖,自適應池化層各項參數計算方法如下:

(Kh,Kw)=(hin,win)(Sh,Sw)=(hin,win)(Ph,Pw)=Khn-hi+12,Kwn-wi+12
(8)
式中:、分別為自適應池化核高與寬;、分別為單通道輸入原始圖像的高與寬;、分別為自適應池化核在與方向上的移動步長;、分別為原始圖像在與方向上的填充長度。則在確定的尺寸后,經自適應池化整形的輸出圖像高與寬分別為

(9)
本文將自適應池化輸出尺寸設定為416,則經上述計算后,任意尺寸的單通道輸入圖像將均被整形為416×416的尺寸。原始圖像經自適應池化層整形后,將繼續經過圖5中連續的最大池化與平均池化操作,進一步縮減圖像尺寸并凝練特征。該過程中將依次輸出、、、4張尺寸不同的特征圖,相鄰通道下同尺寸的特征圖將進行區域結構相似性對比,以確定該尺寸下相鄰通道特征圖的拼接邊界坐標。根據不同尺寸特征圖下所采用的拼接策略,IPP的拼接過程可分為尺度的拼接定位、(=1,2,3)尺度的拼接定位與原始圖像拼合。
IPP首先進行如圖6所示尺度下的圖像拼接定位。當原始圖像經過多次連續池化后,IPP網絡將首先對尺度最小的特征圖沿方向進行區域切片,切片數量與特征圖尺寸保持一致。同時,IPP網絡將生成一個高度與特征圖高度相同、初始寬度為1、擴展步長為1的特征提取框,特征提取框將不斷截取特征圖上的區域切片信息。特征提取框由滑動端和固定端構成,其中尺度下的固定端將錨定于特征圖待拼接一側,滑動端的初始長度為1,并在每一次提取切片信息后按照擴展步長進行放大,尺度下的特征提取框各參數約束條件與切片提取過程如(10)式和圖7所示:
=×,=+≤,=,
=1,=(,0)
(10)
式中:為特征提取框所截取的區域;為初始值為0、自增幅度為1的整數;為尺度下特征圖尺寸;為尺度下特征提取框左上角頂點坐標。

圖6 P0尺度下特征圖的結構相似性拼接過程Fig.6 Structural similarity splice process of P0 scale
IPP將依照步長調整特征提取框的大小,使滑動端延長,不斷截取相鄰通道內特征圖中尺寸相同的對應區域,計算對應間的馬氏距離并進行對比,相鄰通道成像的待拼接特征區域間馬氏距離()為

圖7 P0尺度下特征區域提取過程Fig.7 Feature extraction process of P0 scale

(11)
式中:、為相鄰通道下兩組內部矩陣化的圖像信息;為、的協方差矩陣。由圖6與(11)式可知:隨著滑動邊的不斷變化,特征提取框左上角頂點的位置不斷靠近兩子眼的視場重疊區域邊界,所截取信息中的成像重疊區域與圖像相似性增大,相鄰通道下間的馬氏距離將不斷減小;當滑動邊超過視域重疊區域邊界時,特征提取框內部的圖像信息將不斷出現非重復內容,圖像相似性將逐漸減少,間的馬氏距離將開始增大,該過程如圖8所示。

圖8 馬氏距離與視域重疊區域變化趨勢Fig.8 The change trend of Mahalanobis distance and the overlapping area of FOV

圖9 Pi尺度特征圖的結構相似性拼接過程及循環方式Fig.9 Structural similarity splicing process and cycle of Pi scale


(12)


=×,=±1≤,=,=-1,=(,0)
(13)

圖10 Pi尺度下特征區域提取過程Fig.10 Feature region extraction process of Pi scale
IPP網絡經多次特征圖級拼合后,尺度獲得的拼接邊界定位點將向對應通道下的原始圖像進行映射,以獲得可用于原始圖像拼合的拼接邊界定位點。根據(8)式可知,原始圖像經過自適應池化層時進行了圖像填充,故為還原真實圖像的視域重疊邊界,與的映射關系為

coi=(c3×wim3,0)
(14)


(15)


圖11 原始圖像下的圖像拼合過程Fig.11 Image mosaic process of original scale
經過上述步驟后,IPP即可基于特征圖級下的區域結構相似性,對多路圖像進行快速拼接。對于目標識別算法而言,因該構型復眼的全局成像面積更大,所配合的目標識別網絡需要具備一定的小目標檢測能力。故在此基礎上,本文將以YOLOv3卷積神經網絡作為目標識別構架,并在其基礎上進行網絡輕量化處理,以驗證緊湊折反式仿生復眼及圖像快速拼接識別算法在目標探測任務中的可行性。至此,已完成針對折反式復眼的圖像快速拼接與目標識別算法設計,使探測系統具有全局圖像快速重構與目標識別的能力。
為驗證折反式復眼的成像機理與探測能力,本文依照表1中光學設計約束,利用ZEMAX軟件進行光學仿真,折反式復眼光學成像結構模型、各通道成像質量測試結果與光學性能指標如圖12和表2所示。

圖12 折反式復眼光學成像結構模型與各通道成像質量測試結果Fig.12 Optical imaging structure model of the catadioptric compound eye and imaging quality results of each channel

表2 折反式復眼光學性能參數
通過圖12(a)與表2可知,折反式復眼已具備多角度大視場探測能力,通過光路折返與像面歸一的方式,提升了復眼內部空間利用率并降低了光電探測器搭載數量,實現了仿生復眼成像系統的緊湊化設計。圖12(b)、圖12(c)中,中心子眼與邊緣子眼在156線/mm處的全視場最小MTF值均大于0.3且曲線平滑,具有良好的成像品質;圖12(d)、圖12(e)中,艾里斑半徑為3.00 μm,各通道子眼在0°≤≤45°范圍內均方根(RMS)半徑均小于艾里斑半徑,滿足折反式復眼的大視場清晰成像需求。部分子眼通道在45°<<70°視場范圍內RMS半徑略大于艾里斑半徑,會產生一定的成像像差。但超出數值在允許畸變范圍內,通過圖像矯正算法可以降低鏡組邊緣像差,且位于該視場范圍內的成像信息將僅作為后續拼接算法的對比參考,故不影響仿生復眼系統的探測效率。利用操作數PMAG計算出子眼系統放大率為-0.000 23,對于位于30 m處兩個相距0.2 m的目標,其在光電探測器靶面上的成像間距為46 μm。結合瑞利判據與圖12(d)、圖12(e)中各視場內彌散斑尺寸可知,子眼鏡組的物方分辨率已達到0.2 m,可以滿足小型無人設備對車輛與人員目標進行清晰成像與分辨的需求。
完成折反式復眼成像性能驗證后,以折反式復眼光學模型作為基礎,制備緊湊型折反式復眼模擬樣機成像平臺。該平臺內部光路與成像原理與折反式復眼相同,成像鏡組與折反式復眼子眼等效,采用靶面為1/4″的CMOS作為光電探測器。對于運動狀態拍攝與使用條件惡劣的環境,搭載平臺晃動導與探測器內部振動將分別導致成像拖影與內部光學器件位移,進而影響圖像拼接與成像質量。針對這些問題,可采用復眼光學全部件耦合連接與更換高幀率相機作為手段,降低復眼系統內部器件振動位移并提高光電探測器單幀拍攝速度,以解決光路錯位與光電探測器響應速度不足產生的成像誤差。緊湊型折反式復眼模擬樣機成像平臺如圖13所示。

圖13 緊湊型折反式復眼模擬樣機成像平臺Fig.13 Imaging platform of the compact catadioptric compound eye
緊湊型折反式復眼模擬樣機成像平臺機械尺寸為60 mm×40 mm×38 mm、總質量為230 g(不含圓盤底座)。在進行基于緊湊型折反式復眼模擬樣機成像平臺的多路圖像采集拼合與目標檢測前,需要對目標識別網絡進行訓練。本文以VOC 2012中車輛與人的數據作為訓練集,訓練平臺為DELL Z840,CPU配置為Intel Xeon E5-2643 V3,主頻3.4 GHz,GPU為Quadro P5000,運行內存32 GB,計算環境為Ubuntu 18.04,算法編寫語言為Python,配合Tensorflow 2.0與Opencv 3.2作為輔助高級API。完成訓練后,本文利用折反式復眼模擬平臺進行真實環境下的多路圖像采集與快速拼接識別測試,測試結果如圖14所示。

圖14 折反式復眼實景探測結果Fig.14 Live scene detection results of the catadioptric compound eye
圖14(a)為復眼系統內部光電探測器采集的未拼接原始圖像,其中陰影部分為視場交叉區域的成像重疊部分。折反式復眼通過子眼末端光闌與換向棱鏡,對各通道子眼的傳播光線進行空間約束,使相鄰通道下入瞳與出瞳間均無光路干涉,避免了多光學系統- 單光電探測器分區成像時出現的光線串擾問題。經CMRNN處理后,復眼快速拼接與目標識別結果如圖14(b)所示。從上述測試結果可以看出,本文所設計的CMRNN能夠配合折反式復眼,將多通道圖像拼接成大視場全局圖像,并利用拼合結果對目標進行識別。由于折反式復眼各子眼主光軸方向不同,在立體視覺效應與不同光照角度的影響下,全局拼接圖像將含有如圖14(b)中拼接線附近物體變形與相鄰通道成像亮度差異的少量誤差。由于上述誤差在CMRNN網絡的特征提取過程中將被過濾,故并不會影響全局圖像拼接與目標識別效果,僅會在全局圖像觀測上表現出來。本文中折反式復眼光學結構設計主要面向廣視域多通路圖像拼接與目標識別任務,適用于近距離、目標縱深梯度均衡的成像環境。對于遠距離高質量探測任務,可在本文提出的子眼光學系統上進行進一步優化,采用高景深光學系統或非球面鏡組降低透視誤差,同時配合圖對比度自適應調整、風格遷移生成對抗網絡等算法,對各通道亮度、對比度、色度等成像參數進行歸一化處理,進一步降低上述成像誤差。
除針對CMRNN進行計算速度、識別精度等性能指標的測試外,本文通過不斷調節待檢測目標距離與位置,測試出CMRNN的真實探測能力。該實驗測試結果如表3所示。

表3 CMRNN探測性能指標
通過表3的測試結果可知,基于折反式復眼成像機理驗證平臺下的CMRNN具有實時解算能力,其成像能力、識別能力、視場重疊率與理論計算值基本相同,可以對多通道圖像進行快速拼接與全局目標精確識別。
在此基礎上,本文對各類圖像拼接算法進行了測試,以評判IPP算法的拼接速度與拼接精度。考慮到小型無人設備的搭載能力,圖像快速拼接測試將以英偉達公司的Jetson TX2微型圖像處理模塊作為驗證平臺。拼接精度評判標準將參考文獻[16]中的圖像拼接信息率計算方法,通過計算拼接后全局圖像信息量、拼接后圖像尺寸、拼接圖像冗余信息量、原始環境圖像信息量等參數,判斷各算法的拼接精度。將本文參考文獻中涉及到的拼接算法與本文所設計的圖像拼接算法IPP移植到Jetson TX2后,其測試結果如表4所示。

表4 各圖像拼接算法測試結果
結合上述測試結果可知,本文所提出的拼接算法在保證了良好的拼接精度前提下具有更快的拼接速度。由于IPP采用了基于區域結構相似性的判斷策略,僅在特征圖級進行特征對比,故在完成特征圖向原始圖像拼合時存在一定的像素級信息丟失,導致該算法的拼接精度略低于其他基于像素級匹配的拼接算法,但總體精度仍滿足大視場觀察與后續檢測任務需求。若需進一步提高拼接精度,可在確保拼接速度的前提下,降低滑動邊的移動步長(本次實驗中步長為1),使IPP算法拼接采樣細粒化。同時,IPP減少了基于像素級特征匹配算法的后續特征點篩選與過濾環節,有效地降低了計算開銷并提高了多通道圖像拼接速度。在得到CUDA、Tensorflow等圖像計算構架的支持下,IPP能夠實現多角度圖像的快速整合,對于算力有限的微型圖像平臺有良好的適用性,能夠配合折反式復眼成像系統進行全局圖像的快速重構。
同時,為驗證基于特征圖級結構相似性拼接策略面向背景信息重復率較高環境的圖像拼接能力,本文以森林、草地環境下的無人機航拍圖像作為測試樣本,進行IPP網絡的快速拼接測試。測試過程中待拼接的左、右通道圖像將含有大量重復率較高、語義信息特征相近的信息,同時確保左、右通道待拼接區域面積及其切片分割序列一致,則IPP網絡對高信息重復率圖像拼接測試結果如圖15所示。
從圖15中結果可知,IPP網絡能夠有效地將高信息重復率圖像進行正確拼接。其中相鄰拼接圖像內對應區域歸一化馬氏距離僅在語義信息完全一致的區域上獲得了全局最小值(0號切片分割序列區域),其他非拼接區域內歸一化馬氏距離均存在較大差異。由于IPP網絡采取了區域特征提取與結構一致性對比,能夠對空間范圍內像素間特征關系進行提取,避免了單點匹配策略在高重復率圖像拼接上易出現的多拼接點候選的問題,證明了IPP網絡具有面向高信息重復率圖像的精確拼接能力。

圖15 高信息重復率圖像拼接測試Fig.15 Image splicing tests with high information repetition rate
綜上,本文通過光學仿真與實景計算測試的方式,驗證了折反式仿生復眼的成像機理與基于區域結構相似性的圖像拼接目標識別網絡的可行性,證明了所提出的折反式復眼及其圖像拼合目標識別算法具有大視場清晰成像、多通道圖像快速拼合與目標精確實時識別的能力。
本文提出了一種折反式仿生復眼成像原理及其圖像快速拼接識別算法,通過光路折反與多角度子眼像面歸一的方式,構建多孔徑- 單探測器結構的緊湊型大視場仿生復眼成像光學系統。利用基于區域結構相似性對比的圖像拼接算法,對多角度子眼成像進行特征圖級的快速拼合。配合深度卷積神經網絡,對目標進行全局圖像下的識別與定位。實驗結果表明,所提出的折反式復眼結構緊湊、探測視域廣、成像清晰,配合所設計的圖像拼接與目標識別算法,能夠實現大視場成像下的目標快速精確識別,可以為小型無人機、低速彈箭等載荷與算力受限的智能武器提供良好的視覺成像與探測支持。