999精品在线视频,手机成人午夜在线视频,久久不卡国产精品无码,中日无码在线观看,成人av手机在线观看,日韩精品亚洲一区中文字幕,亚洲av无码人妻,四虎国产在线观看 ?

深度學習屈光檢測方法研究

2023-02-14 10:31:26丁上上鄭田莉張賀童裴融浩付威威
計算機工程與應用 2023年3期
關鍵詞:檢測

丁上上,鄭田莉,姚 康,張賀童,裴融浩,付威威

1.中國科學技術大學 生物醫學工程學院(蘇州)生命科學與醫學部,江蘇 蘇州 215000

2.中國科學院 蘇州生物醫學工程技術研究所,江蘇 蘇州 215000

屈光不正的早期檢測在近視防控中起到了至關重要的作用,若能及時發現屈光異常并采取措施進行干預與控制,就可以阻止近視的發展并減輕視力的受損[1]。因此,美國兒科學會(AAP)、美國小兒眼科與斜視協會(AAPOS)和歐洲斜視協會(ESA)推薦早期的屈光篩查[2]。

目前攝影驗光方法被廣泛應用于屈光篩查。攝影驗光是一種通過攝影手段來測量眼睛屈光度的客觀方法,其基本原理是采用攝影技術拍攝視網膜反射出的光線,因屈光狀態不同,瞳孔區會出現不同的光影,從而可測出被檢者的屈光度。1974年美國學者Howland根據視網膜檢影法的基本原理提出了正交攝影驗光法[3],這標志著攝影驗光的開始。1979年芬蘭科學家Kaakinen根據正交攝影驗光法的原理提出了對角膜和眼底反光同時攝影的偏心攝影驗光法[4]。在此之后,中國學者瞿佳[5]、加拿大學者Roorda[6]、德國學者Kusel[7]、中國學者葉宏偉等人[8]先后對攝影驗光技術進行了研究與改進,使得此屈光檢測方法的精度與準確度得到了提高。

攝影驗光采用非接觸的方法進行屈光檢測,不需固定被測者頭部,降低了對被測者的配合要求,比其他驗光方法更適用于嬰幼兒、青少年兒童等難以長時間配合執行規范檢測流程的特殊群體,效率較高,適合大規模的屈光篩查。但是,使用攝影驗光的方法進行屈光篩查,目前還主要面臨著兩個問題:屈光檢測的準確度相對于其他檢測方法較低;對被測者的測量位置有較高的要求,影響檢測效率。

目前市面上使用攝影驗光原理的屈光檢測設備的柱鏡精確度和球鏡精確度一般為±0.50D或±1.00D,此精度與其他驗光方法相比,相對偏低。這是因為使用攝影驗光原理進行屈光檢測的方法,主要有兩種,一種是根據瞳孔圖像中新月形亮暗區域高度關系計算屈光度,另一種則是根據瞳孔圖像內光影的亮暗變化規律進行屈光度的計算。第一種方法,使用圖像處理技術尋找瞳孔圖像中的亮暗區域邊界,并將亮暗區域進行分割,再計算亮暗區域的高度,從而得到被測眼的屈光度。然而,瞳孔圖像中的亮暗變化是漸變的,使用圖像處理的方法很難準確獲取亮暗區域的邊界,在此過程中,會引入較大誤差,很難得到準確的屈光度結果。另一種方法則不需要獲取亮暗區域邊界,而是使用由光源在視網膜上反射圖像的照度斜率來判斷屈光狀態,即以瞳孔圖像中心為中點,沿光源布置方向取若干個像素點的灰度值,將此組灰度值擬合成一條直線,根據此直線的斜率確定被測眼的屈光狀態。使用此方法對圖像分辨率有較高要求,若圖像分辨率較低,則無法獲取合適數量的像素點灰度值,導致計算精度較低。另外,此方法需要將計算得到的斜率與真實屈光度進行擬合,此過程需要較多數據,且計算相對復雜,會造成較大誤差,使屈光檢測準確度很難進一步提高。

攝影驗光采用非接觸的方式進行屈光檢測,與其他驗光方式相比,降低了被測者的配合度要求。但是,此種方法對被測者的位置要求依舊較高,當被測者瞳孔偏離圖像中央區域較多時,屈光檢測結果將會受到較大影響。這是因為當被測者位置改變時,圖像特征會隨之而產生變化,影響圖像處理的結果。目前的解決辦法主要是通過對不同位置狀態下的檢測結果與真實屈光度進行標定,但整個過程較復雜,在標定的過程中會引入較多因素,使得檢測結果的準確度受限。因此,在實際驗光過程中,設備操作人員要花費較長時間調整與被測者的相對位置,使被測者眼部區域位于圖像中央區域附近,這將降低屈光篩查效率,使攝影驗光的優勢得不到充分發揮。

為了解決現有攝影驗光方法存在的幾個問題,本文提出一種基于深度學習的屈光檢測方法,此方法利用偏心攝影驗光的光學原理,獲取被測者人臉面部近紅外圖像,使用圖像處理技術對面部近紅外圖像進行處理,得到左右瞳孔圖像和瞳孔位置信息,使用混合數據多輸入神經網絡模型進行訓練與屈光度的預測。深度學習是一種對大量數據進行表征學習的方法,其自動提取特征,具有非常強的學習能力和適應能力,且由數據驅動,上限高。與傳統偏心攝影驗光原理的屈光檢測方法相比,此方法可以隨著數據集的擴增而達到更高的準確度,并且此方法將瞳孔位置信息作為模型的輸入,有希望解決傳統算法對被測者配合度要求較高的問題。

此方法作為對新式屈光檢測方法的一種有益探索,有利于屈光篩查更便利地進行,提高大規模屈光篩查的效率。未來,嘗試將此方法應用于終端設備上,探索自助式屈光檢測的可行性,從而使屈光檢測高頻率、常態化地進行,便于青少年兒童近視的防控。

1 偏心攝影圖像獲取

1.1 偏心攝影驗光原理

偏心攝影驗光法是一種利用攝影獲得的瞳孔圖像來判斷患者眼瞳屈光狀態的方法[9],拍攝經過視網膜反射出的光線在瞳孔區域因屈光狀態不同而表現出的不同光影,從而檢測患者的屈光狀態,其光學原理如圖1所示(以近視眼為例)。

圖1 偏心攝影驗光原理圖Fig.1 Schematic diagram of eccentric photography optometry

1.2 圖像采集系統設計

偏心攝影圖像采集系統硬件組成如圖2所示。

圖2 圖像采集系統硬件組成示意圖Fig.2 Image acquisition system hardware schematic

光源模塊發射的850 nm波段近紅外光線,經過半透半反鏡后進入人眼,人眼屈光系統反射回來的光線再通過半透半反鏡到達圖像采集模塊前,經過圖像采集模塊鏡頭前的850 nm窄帶濾光片后,最終在圖像采集模塊傳感器上成像。光源模塊中心與圖像采集模塊的光軸在同一中軸線上,通過光源模塊上的偏心光源實現對眼瞳的偏心攝影。

光源模塊由光源電路板和LED陣列組成,LED陣列排布方式如圖3所示。

圖3 光源模塊LED陣列Fig.3 LED light source array module

LED陣列由23個850 nm近紅外LED組成,包含1個同心近紅外光源和22個偏心近紅外光源。同心近紅外光源的作用是照亮瞳孔整體區域,為使用圖像處理技術進行瞳孔定位以及提取提供了有利條件。偏心近紅外光源為攝影驗光提供偏心光源,根據偏心攝影驗光原理,光源位置與圖像采集模塊光軸之間存在一定偏心距,不同偏心距下獲取到的瞳孔圖像對屈光狀態程度反應不同,從而可以控制LED陣列中不同LED組合而成的亮燈模式,獲取到可以反應被測眼不同方位和屈光程度的偏心攝影圖像。

2 基于深度學習的屈光檢測方法

為了解決現有攝影驗光技術屈光檢測準確度較低,且對被測者位置配合度要求較高的問題,本文提出一種基于深度學習的屈光檢測方法,方案如圖4所示。首先通過偏心攝影圖像采集系統采集被測者近紅外面部圖像,使用圖像處理技術,從被測者面部圖像中分別提取左右瞳孔圖像以及左右瞳孔在圖像中的相對位置信息。其次將提取到的瞳孔圖像和瞳孔相對位置,兩種數據作為深度學習的輸入,一起送入混合數據多輸入神經網絡模型中。最后經過模型的計算預測,同時得到球鏡度與柱鏡度結果。

圖4 基于深度學習的屈光檢測方法Fig.4 Refractive detection method based on deep learning

2.1 自制數據集

使用深度學習的方法進行屈光檢測,其中一個關鍵前提是要對神經網絡模型進行訓練,這需要大量的數據,此數據包括被測者瞳孔圖像以及瞳孔位置信息。然而,目前還沒有公開的包含以上兩種數據的用于屈光檢測的數據集,因此,需要自制數據集。

本研究所采集的數據包括:近紅外偏心攝影面部圖像、球鏡和柱鏡。其中,近紅外偏心攝影面部圖像是通過第1章中所述的圖像采集系統,在環境相對穩定的室內所采集獲取的,共采集了1 517組面部圖像(3 034組瞳孔圖像),每組圖像由22幅在不同光源下所拍攝的圖像組成,并且為避免拍攝過程中位置移動影響,控制相機以每秒30幀的速度拍攝;球鏡度和柱鏡度由專業持證驗光師對被測者進行多次驗光,并取平均值而得。

2.1.1 圖像預處理

基于第1章中的偏心攝影驗光原理和圖像采集系統,獲取近紅外面部圖像,圖像如圖5所示。本文所提出的屈光檢測方法,需要使用瞳孔圖像以及瞳孔位置信息作為輸入,因此,在整幅近紅外面部圖像中,僅對瞳孔區域感興趣。

圖5 近紅外面部圖像Fig.5 Near infrared facial image

為了從面部圖像中獲取瞳孔區域圖像以及瞳孔位置信息,需要使用圖像處理技術對面部圖像進行處理,步驟如圖6所示。

圖6 預處理流程圖Fig.6 Preprocessing flow chart

首先,使用模板匹配[10]的方法分別對左右眼區域進行定位,并根據匹配結果的坐標判斷左眼與右眼。模板匹配方法采用歸一化平方差匹配法(TM_SQDIFF_NORMED),當模板與目標區域完全匹配時,計算數值為0,兩者匹配度越低,計算數值越大。其形式如下所示:

為了降低計算量,避免對面部非眼部區域進行無意義的處理,所以根據模板匹配結果提取眼部區域圖像,對非感興趣區域進行舍棄,如圖7(a)所示。在得到眼部區域圖像后,需對圖像進行二值化處理,為了準確提取目標,找到合適的閾值尤為重要。此處采用局部自適應閾值法進行二值化[11],利用圖像的局部閾值代替全局閾值進行分割,根據圖像不同區域像素點的灰度值分布計算局部閾值,實現不同區域采用不同閾值分割的效果。多次實驗結果表明,采用75×75大小的模板進行高斯加權平均值運算,可以實現較理想的效果,對眼部區域圖像采用局部自適應閾值二值化,結果如圖7(b)所示,中間的白色圓形區域即為瞳孔區域。

圖7 瞳孔區域提取過程Fig.7 Pupil region extraction process

由經過二值化后的眼部圖像可以看出,圖像中不僅包含了瞳孔區域,還包含其他眼部干擾信息,瞳孔區域與干擾信息間具有較明顯的分界,遂使用區域生長法對瞳孔區域進行提取[12]。區域生長法是一種可以精確地將具有某種特征的像素點區域提取出來的算法,其基本原理是判斷相鄰的像素元素是否具有相同特征,并將具有相同特征且能夠連通的像素點合并為生長區域。提取結果如圖7(c)所示。

提取瞳孔區域后,其邊緣并不平滑,這將有可能導致部分有效信息缺失,因此對瞳孔區域進行形態學濾波,填補瞳孔邊緣較小空洞,并去除邊緣毛刺。對一組圖像進行上述預處理步驟,得到22幅不同偏心光照狀態下的瞳孔圖像,每幅圖像尺寸均為128×128,如圖8所示,這將作為本文屈光檢測方法的輸入圖像。

圖8 一組預處理后的瞳孔圖像Fig.8 A set of preprocessed pupil images

2.1.2 數據集制作

本文采用監督學習的方法進行屈光檢測,數據集包含特征與標簽,其中特征又由混合數據組成,包括圖像數據與數值數據。數據集的組成如圖9所示。本研究一共獲取了3 034組數據樣本,其中80%用于訓練屈光檢測神經網絡,20%用于測試。采用深度學習框架Keras,一 個NVIDIA GeForce GTX 1060 GPU與16 GB內存用于訓練和測試。

圖9 數據集組成Fig.9 Composition of data set

2.2 提出SE-mini-Xception網絡

數據集中每一組數據樣本中都包含了22幅單通道瞳孔圖像,這22幅圖像是通過偏心攝影原理獲取的,每幅圖像在采集使所使用的光源不同,即每幅圖像所呈現出的特征及信息都因光源的方位以及偏心距的不同而不同,各圖像中所包含的屈光信息將由22幅獨立的圖像綜合而決定。

為了更方便地將多幅圖像輸入到神經網絡中,在訓練前將每組數據樣本中的22幅單通道瞳孔圖像進行通道的合成,即以一個22通道數據的形式輸入到網絡中,其尺寸為128×128×22。考慮到上述偏心攝影圖像的特點,一組數據中的每幅圖像在相同區域下所呈現的特征和代表的信息都是不一樣的,可以這樣理解,雖然同一組圖像中的某個相同區域所代表的都是瞳孔的某個特定區域,但此特定區域中瞳孔圖像的明暗分布是不同的,即其包含的屈光信息是不同的。這將導致,合成后的22維數據,其在相同區域內的各通道信息具有一定的獨立性,意味著若想更好地獲取屈光特征,需要將通道與區域進行解耦。因此,本研究在網絡中使用了深度可分離卷積[13],用于將通道與區域分開考慮,從而更好地提取屈光信息特征。

標準的卷積過程,對應圖像區域中的所有通道均被同時考慮,深度可分離卷積提出了一種新思路:對于不同的輸入通道采取不同的卷積核進行卷積。它將普通的卷積操作分解為了兩個過程:深度卷積和逐點卷積。采用深度卷積對不同的輸入通道分別進行卷積,然后將得到的特征圖進行第二次卷積,將上面的輸出進行結合,這里的卷積都是1×1的逐點卷積。使用深度可分離卷積可將通道與空間區域分開考慮,并可大幅降低計算量和模型參數量。以三通道輸入為例,其卷積過程如圖10所示,多通道與之類似。

圖10 深度可分離卷積過程Fig.10 Process of depthwise separable convolution

由于22幅圖像是在多個不同偏心距的光源下進行采集的,數據中的每個通道都包含了屈光信息,但根據偏心攝影驗光原理,不同偏心距對圖像中亮暗陰影呈現是不同的,即各通道所包含的屈光信息的重要程度是不一樣的。因此,本研究中引入特征重標定卷積(SE模塊)[14-15],通過學習的方式自動獲取到每個特征通道的重要程度,然后依照此重要程度去提升有益特征并抑制對當前任務用處不大的特征。SE模塊如圖11所示。

圖11 SE模塊Fig.11 Squeeze-and-Excitation module

SE模塊主要包括三個步驟:壓縮(Squeeze)、激勵(Excitation)、重標定(Reweight)。首先進行壓縮(Squeeze)操作,順著空間維度來進行特征壓縮,將每個二維的特征通道壓縮為一個實數,此實數某種程度上具有全局的感受野,并且輸出的維度和輸入的特征通道相匹配,如公式(2)所示。式中下標c表示第c個通道。

其次是激勵(Excitation)操作,為每個特征通道生成權重。如公式(3)所示,其過程可以分為三步,首先經過一個全連接層,將特征維度進行降維,然后經過ReLu函數激活后再通過一個全連接層將維度恢復,最后經過Sigmoid函數獲得0~1之間歸一化的權重。此處的s即為通過前面的全連接層和非線性層學習而得到的權重。

最后是重標定(Reweight)操作,將激勵操作后輸出的權重作為經過特征選擇后的每個特征通道的重要性,逐通道加權到先前的特征上,完成在通道維度上的對原始特征的重標定,如公式(4)所示:

我國廉政總署可以考慮就以下若干方面的權力作出法律規定:一、接受舉報權;二、調查權;三、逮捕權;四、搜查權;五、限制轉讓(處置)財產權;六、預審、審問、登記權;七、要求交出(收繳)旅游證件權;八、建議解除公職權;九、采取預防措施權;十、起訴權;十一、審判權,等等。

綜合考慮基于偏心攝影驗光原理所獲得的圖像以上兩個特征,提出了結合深度可分離卷積與SE模塊的新型神經網絡SE-mini-Xception,網絡結構如圖12所示。

圖12 SE-mini-Xception網絡結構Fig.12 Structure of SE-mini-Xception

Xception[13]是谷歌公司繼Inception后,提出的InceptionV3[16]的一種改進模型,Xception的一個很重要的工作是提出用深度可分離卷積代替過去的標準卷積。本文所提出的卷積神經網絡結構參考了Xception網絡結構特點,經過對原有結構進行層數修剪以及修改,并且加入了SE模塊為模型增加了注意力,因此將其命名為SE-mini-Xception。

SE-mini-Xception由輸入流、中間流和輸出流組成。其中輸入流由兩個深度可分離卷積層組成,實現對22通道圖像信息的輸入提取;中間流由4個結合了SE模塊與殘差模塊的基礎模塊組成,基礎模塊結構組成如圖13所示,每個基礎模塊中都使用了深度可分離卷積,并結合SE模塊對各特征通道進行特征重標定,使用殘差模塊在降低計算量的同時起到防止神經元退化問題的發生,有利于網絡更好地訓練學習;輸出流經過一個卷積層和池化層,并通過全連接層將SE-mini-Xception網絡計算結果輸出為一個一維張量。

圖13 基礎模塊結構Fig.13 Structure of basic block

上述所提出的SE-mini-Xception卷積神經網絡將用于處理圖像信息,即本文中的22通道圖像數據。此網絡對每個多通道圖像數據進行計算,返回一個一維張量,用于后續的屈光度預測。因此,在本文中,SE-mini-Xception卷積神經網絡將作為混合數據多輸入神經網絡的一條核心分支使用。

2.3 混合數據多輸入神經網絡

本文所提方法基于偏心攝影驗光原理進行屈光檢測,并且在圖像采集過程中不嚴格要求被測者與圖像采集系統光軸對齊,而是允許被測者在一定范圍內可產生位移,本文將瞳孔位置信息以及瞳孔圖像信息相結合,從而解決屈光檢測過程中的位置適應性問題。基于以上目的,提出混合數據多輸入神經網絡結構,神經網絡結構如圖14所示。

圖14 混合數據多輸入網絡Fig.14 Mixed data and multiple input network

此混合數據多輸入神經網絡模型由兩個分支組成,分別為數值分支和圖像分支。其中,數值分支較簡單,數值數據經過不使用激活函數的單層感知機計算,輸出一個一維張量,記為T1。由于此處的數值數據僅用到了瞳孔位置信息,且不使用激活函數,因此此處的單層感知機相當于僅對位置數值做簡單的線性變換。圖像分支如2.2節所述,輸入一組22通道圖像數據,經過SE-mini-Xception卷積神經網絡的處理,輸出一個一維張量,記為T2。

上述兩分支僅用于提取特征信息,并不進行屈光度結果的回歸計算,回歸計算放于兩分支連接后進行。將數值分支和圖像分支所輸出的兩個一維張量T1、T2進行連接組合,形成一個新的一維張量T3,并使用以“tanh函數”為激活函數的全連接層進行回歸計算,從而得到屈光度預測結果,此處屈光度結果包含柱鏡度和球鏡度。

2.4 網絡訓練

本文使用均方誤差(MSE)作為損失函數,如式(5)所示,其指參數估計值與參數真實值之差平方的期望值。

使用決定系數(R2_score)作為評價指標,如式(6)所示,決定系數反應因變量的波動,可以用來判斷模型對數據的擬合能力,決定系數越高,則模型對數據的擬合能力越好。

并使用隨機梯度下降法訓練模型,設置batch size為16,epochs為70,初始學習率為0.000 1;設置自適應學習率下降,val_loss五次不下降便將學習率修改為原來的二分之一;訓練過程中保留驗證集中決定系數最大的模型。訓練結果如圖15所示。圖中,本文的混合數據多輸入神經網絡的R2_score為99.17%。

圖15 網絡訓練過程評價Fig.15 Network training process evaluation

3 實驗與分析

3.1 屈光度準確性實驗

本文用于測試的樣本共有613個,球鏡度分布范圍為-8.0D~2.75D,柱鏡度分布范圍為-2.5D~0D。使用上述所提出的神經網絡模型對所有測試樣本進行屈光度預測。

為了更直觀地看出屈光度預測結果,從測試樣本中隨機選取100個樣本,將此100個樣本的球鏡度和柱鏡度的標簽值與預測值進行對比,得出如圖16和圖17所示結果。

圖16 球鏡度預測Fig.16 Spherical diopter prediction

由圖16、圖17結果顯示,球鏡度與柱鏡度預測結果均與標簽值接近,隨著標簽值單調遞增的過程而單調遞增。因此,可以得出結論,使用本文中所提出的深度學習屈光檢測模型,能夠實現屈光度的計算,且與標簽值變化趨勢基本一致。

圖17 柱鏡度預測Fig.17 Cylinder diopter prediction

為了更清楚地分析屈光度預測結果,驗證本方法在不同球鏡度和柱鏡度范圍內的適用性,在此處將屈光度范圍進行分級,并分別對每級的預測結果進行準確度分析。由于目前市面上的多數視力篩查儀的球鏡度與柱鏡度的精度為±0.50D,因此將此處的預測準確定義為預測值與標簽值的差的絕對值在0.50D以內。

如表1所示,將球鏡度范圍分為9類,將-8D到0D范圍內的球鏡度按1D的間隔進行分類,將大于0D的球鏡度單獨作為一類。結果顯示,613例測試樣本中預測準確的樣本數共計536例,準確率達87.44%,高于韓國學者Chun于2019年做的相關研究[17],其以2.0D和2.5D為間隔對-5.0D到5.0D的球鏡度對進行分級,并進行分類預測,準確率為81.6%。

表1 球鏡度預測結果Table 1 Result of spherical diopter prediction

表1中結果顯示,各類球鏡度范圍的預測準確率均在總體準確率87.44%上下波動,且波動范圍較穩定。其中S>0D的預測準確率稍低,這是由于遠視樣本較少,且樣本分布不均,因此預測準確率較低。可以得出結論,本文所提出的屈光檢測方法對于-8.0D到0D范圍內的球鏡度均適用。

如表2所示,將柱鏡度范圍共分為了5類,將-2.0D到0D范圍內的柱鏡度以0.5D的間隔進行分類,將小于-2.0D的柱鏡度單獨作為一類。結果顯示,613個測試樣本,其中預測準確樣本數為566個,準確率達92.33%。表中結果顯示,在柱鏡度小于-2.0D以及在-2.0D到-1.5D范圍內,柱鏡度預測準確率較低,這是由于散光程度較嚴重的樣本較少,且分布不均,模型對這部分樣本特征未能較好地學習,因此預測準確率偏低。不過,表2所示結果,可以得出結論,該模型在-1.5D到0D范圍內的柱鏡度預測較準確,均在95%左右。

表2 柱鏡度預測結果Table 2 Result of cylinder diopter prediction

綜上所述,本文所提出的基于深度學習的屈光度預測算法,適用于絕大多數范圍的屈光度預測,并且可以同時實現球鏡度和柱鏡度的預測,準確率分別達到87.44%與92.33%,超過了現有的基于深度學習的屈光度預測方法。

3.2 位置適應性實驗

本文所提方法不需要嚴格要求被測者對準圖像采集系統光軸,給被測者提供了一定的位移范圍,具有位置適應性的功能。因此,在本節中,對該方法的位置適應性進行實驗分析。

以圖像中心點為原點,計算每個瞳孔圖像質心與圖像中點的距離,即瞳孔偏心距,此處偏心距的單位為像素。正常人的瞳距約為58 mm到75 mm,根據圖像傳感器分辨率(1 280×1 024)、像元尺寸(4.8 μm×4.8 μm)、拍攝距離為1 000 mm、鏡頭焦距為50 mm,計算而得,在要求被測者對準圖像采集系統光軸時,正常人的瞳孔偏心距在此圖像中的對應范圍約為302到390之間。

為驗證本方法對瞳孔不同位置狀態的適應性,對瞳孔偏心距進行分級。如表3所示,將測試樣本的瞳孔偏心距進行劃分,共分為七類,250到500范圍內以50為間隔劃分為五類,大于500和小于250的偏心距各單獨為一類。表中結果顯示,隨著偏心距的改變,球鏡度和柱鏡度的預測準確度并沒有劇烈波動,球鏡度預測準確度保持在80%以上,柱鏡度預測準確度也在90%左右。其中,在偏心距小于250時,球鏡度與柱鏡度的預測準確率均較低,此處由于樣本量較少,深度學習模型對特征學習不充分,導致預測準確率較低。

由表3結果,可以得出結論,本文所提出的屈光度預測算法,具有位置適應性的特點。

表3 位置適應性結果Table 3 Result of location adaptability experiment

4 結束語

本文提出了一種基于深度學習的屈光檢測算法,作為對未來自助式屈光檢測算法的一種探索嘗試。在該方法中,首先進行了圖像采集系統的搭建,使用搭建好的圖像采集系統進行基于偏心攝影驗光原理的近紅外人臉圖像的采集;然后使用圖像處理技術對人臉圖像進行預處理,得到瞳孔圖像和瞳孔位置信息;最后使用預先訓練好的具有數值分支和圖像分支的混合數據多輸入神經網絡進行屈光度的預測,其中圖像分支使用了針對圖像數據集特點特地設計的卷積神經網絡。

本文提出的端到端的神經網絡模型,可以同時預測出球鏡度和柱鏡度結果,在測試樣本中,球鏡度準確率為87.44%,柱鏡度準確率為92.33%,較大地超過了目前的基于深度學習的屈光檢測方法,且隨著數據集的積累,準確率將進一步提高。同時該方法將瞳孔位置信息作為神經網絡模型的輸入,有效地解決了傳統屈光檢測方法對被測者位置要求較高的問題,有望實現自助式的屈光篩查。

該方法目前還存在一些不足,有待進一步研究。目前數據集較小,模型準確率和位置適應性還存在很大的優化進步空間;模型不夠精簡,運行速度還有待提高;該方法目前僅考慮了瞳孔圖像和位置信息,隨著數據的積累,未來將結合被測者相關個人信息,如BMI、性別、父母近似情況等與近似相關的因素,進一步提高準確率;模型目前可以同時預測出球鏡度和柱鏡度,未來將進行球鏡、柱鏡、軸位三個信息的同時預測研究。

猜你喜歡
檢測
QC 檢測
“不等式”檢測題
“一元一次不等式”檢測題
“一元一次不等式組”檢測題
“幾何圖形”檢測題
“角”檢測題
“有理數的乘除法”檢測題
“有理數”檢測題
“角”檢測題
“幾何圖形”檢測題
主站蜘蛛池模板: 国产福利一区视频| 久久永久免费人妻精品| 91精品国产自产91精品资源| 少妇高潮惨叫久久久久久| 熟妇丰满人妻| 在线观看免费人成视频色快速| 波多野结衣无码中文字幕在线观看一区二区| 欧美成人午夜影院| 在线播放真实国产乱子伦| 欧美成人二区| 久久天天躁夜夜躁狠狠| 亚洲国产精品日韩av专区| 亚洲 欧美 偷自乱 图片| 国产内射在线观看| 亚洲天堂视频网站| 亚洲成人免费看| 亚洲天堂网站在线| 久久毛片基地| 亚洲成人在线网| 婷婷五月在线视频| 亚洲一区二区日韩欧美gif| 青青极品在线| 青青青视频91在线 | 欧美人人干| 天天操精品| 天天摸夜夜操| 精品国产一区二区三区在线观看| 国内精自视频品线一二区| 四虎成人精品| 黄色片中文字幕| 日本一本在线视频| 一区二区在线视频免费观看| 亚洲男人在线| 91在线播放国产| 亚洲制服丝袜第一页| 国产AV无码专区亚洲A∨毛片| 国产亚洲精品va在线| 少妇高潮惨叫久久久久久| 亚洲无码免费黄色网址| 国产欧美网站| 激情网址在线观看| 欧美一级夜夜爽www| a级高清毛片| 手机成人午夜在线视频| 久久精品人妻中文系列| 久久亚洲欧美综合| 精品视频福利| 香蕉久久国产超碰青草| 欧美精品啪啪一区二区三区| 中文字幕在线看| 国产综合色在线视频播放线视| 亚洲精品国产日韩无码AV永久免费网 | 国产精品99一区不卡| 日韩无码视频专区| 黄色一级视频欧美| 欧美中文字幕在线二区| 91久久夜色精品国产网站| 亚洲无限乱码一二三四区| 日本黄色不卡视频| 国产AV无码专区亚洲A∨毛片| 国产一级α片| 国内丰满少妇猛烈精品播| 亚洲a级毛片| 欧美国产日韩在线播放| 午夜性爽视频男人的天堂| 亚洲高清资源| 99视频全部免费| 成年人国产视频| 亚洲欧美在线综合一区二区三区| 91成人在线免费视频| 亚洲大学生视频在线播放| 亚洲第一成年免费网站| 亚洲欧美成aⅴ人在线观看 | 日本精品视频一区二区| 伊人色天堂| 欧美a在线看| 狼友av永久网站免费观看| 特级精品毛片免费观看| 欧美综合区自拍亚洲综合绿色 | 91无码国产视频| 日韩精品专区免费无码aⅴ| 九九热精品在线视频|