馮 云 張維軍 李寅巖 張送根*
在手術導航和手術機器人定位系統(tǒng)中存在多個坐標系,如圖像坐標系、患者坐標系和工具坐標系等[1-3]。在應用其進行手術時需要將多個坐標系統(tǒng)一到同一坐標系下,此過程即稱為配準或注冊[4-6]。在導航手術流程中,配準是必不可少的重要組成部分,且配準的精度直接影響著整個手術導航定位系統(tǒng)的精度,只有在完成配準使得手術導航定位系統(tǒng)中各個設備的坐標系達到統(tǒng)一后,方可進行后續(xù)的導航跟蹤,并對手術進行引導[7-10]。本研究提出一種新的基于標記點的三維醫(yī)學圖像配準方法,并對其可行性進行驗證。
Sawbone腰椎和頸椎模型骨,農大二號豬4頭(北京積水潭醫(yī)院動物中心);天璣TM骨科手術機器人(北京天智航醫(yī)療科技股份有限公司);西門子Arcadis Orbic 3D(SIEMENS Healthineers,Germany);透X射線的手術床(北京天智航醫(yī)療科技股份有限公司);克氏針及手術器械(天津新中醫(yī)療器械有限公司)。
1.2.1 標記點設計
為便于對標記點進行自動識別和提取質心,本研究選取應用在X射線計算機斷層成像(computed tomography,CT)和錐形束計算機斷層攝影(conebeam computed tomography,CBCT)掃描圖像中亮度等級較高的材質制成的球形標記點,為保證標記點在CT及CBCT的有效成像視野中完全成像,綜合考慮后期自動配準的速度和效果,本研究設計6個標記點,并將其各向異性地安裝在定位工具上,其帶有標記點的定位工具如圖1所示。

圖1 定位工具示意圖
1.2.2 標記點初步粗篩
本研究利用定位工具上標記點(參考標記點)的灰度特征,結合其幾何特性進行圖像標記點提取。①基于參考標記點的理論CT值,利用移動立方體(marching cubes,MC)算法在圖像中分割得到一系列候選標記點,其中既包含真實的標記點,也包括一些錯誤的標記點;②計算候選標記點的質心坐標,并基于參考標記點的尺寸、形狀等幾何特性進行圖像標記點的初步粗篩選,其流程如圖2所示。

圖2 標記點初步粗篩流程圖
1.2.3 標記點精細篩選及配對
本研究對圖像標記點的精細篩選主要是基于參考標記點之間的空間位置關系實現(xiàn)。①從參考標記點中任意選出3個標記點組成三角形,而后利用該三角形在圖像標記點中初步篩選出與其全等的三角形,形成多組全等三角形模板對;②以全等三角形模板對為基準,再結合剩余的參考標記點將圖像標記點逐一篩選出來,得到參考標記點向量和與其一一對應的圖像標記點向量。在此過程中,為將定位工具上的標記點初步粗篩選結果包含的錯誤標記點剔除,當參考標記點向量和圖像標記點向量中元素數(shù)目≥4時,每當需要往向量中新加入一個標記點都要計算參考標記點向量和圖像標記點向量之間的旋轉矩陣,并根據(jù)計算所得旋轉矩陣計算反帶誤差,并判斷反帶誤差是否小于目標誤差,從而判斷新加入的圖像標記點是否滿足要求,同時還可從之前識別出的多組全等三角形模板對中剔除干擾項,其流程如圖3所示。
本研究分別以腰椎、頸椎模型骨、動物(豬)脊椎骨和尸體脊椎骨等作為試驗對象,應用CBCT共采集25例三維X射線醫(yī)學圖像對算法性能進行驗證。每次采集圖像時,均將帶有6個標記點的定位工具和試驗對象一起進行掃描。其中,試驗驗證時均應用直徑為3 mm的球形鋼珠作為標記點,固定標記點的定位工具均是由透X射線的材料制成。利用標記點進行圖像配準時,通過計算參考標記點和圖像標記點之間剛性變換的旋轉和平移矩陣實現(xiàn),該矩陣可以使參考標記點和與其一一對應的圖像標記點之間的均方根距離最小,故本研究應用圖像配準和轉換后對應標記點之間的均方根距離作為標記點配準誤差,也是標記點精細篩選及配對方法中判斷新加入圖像標記點是否符合要求的反帶誤差,其模型骨及定位工具三維X射線醫(yī)學圖像如圖4所示。

圖3 標記點精細篩選及配對流程圖

圖4 模型骨及定位工具三維X射線醫(yī)學圖像

表1 試驗配準結果
應用25幅三維X射線醫(yī)學圖像進行標記點的識別及配對,每幅圖像中包含6個標記點,共計150個圖像標記點。圖4所示的三維X射線醫(yī)學圖像中的標記點粗篩結果如圖5所示,標記點的精細篩選結果如圖6所示。

圖5 三維X射線醫(yī)學圖像的標記點粗篩圖像

圖6 三維X射線醫(yī)學圖像的標記點精細篩選圖像
在25幅醫(yī)學圖像中,經(jīng)過MC算法結合標記點幾何特征初步粗篩共計得到170個標記點,經(jīng)過精細篩選配對后最終得到131個正確標記點,共計19個標記點未被識別出來,其主要原因包括:①CBCT的有效成像視野較小,成像時位于CBCT有效成像視野中心的標記點亮度較高,而位于有效成像視野邊緣的標記點亮度較低,故在進行標記點粗篩時,亮度較低的標記點會被剔除;②試驗對象本身體積較大,而CBCT成像視野有限,定位工具在和試驗對象一起掃描時并未掃描完整,有漏掃標記點的現(xiàn)象。由于本方法在進行設計時對前述因素進行了考慮,標記點數(shù)目設計時有冗余,故應用本方法依然可以實現(xiàn)圖像配準,且25組試驗的配準誤差均<1 mm,算法達到了較好的識別效果和配準精度,見表1。
目前,常用的配準方法有兩種,一種是基于表面,該算法實現(xiàn)過程復雜且精度較低;一種是基于標記點[11-12]。在計算機輔助手術系統(tǒng)中,標記點是用于實現(xiàn)定位的物體,既可以直接附著在人體表面,也可以固定在定位工具上。配準時,首先將標記點或帶有標記點的定位工具和患者患處一起利用三維X射線成像設備進行掃描,然后將掃描圖像中的標記點利用自動或手動的方法提取出來,從而獲取其在圖像坐標系中的坐標,最后通過標記點序列配對算法將患者或定位工具上的標記點與圖像中的標記點建立一一映射關系,即可得到患者和(或)工具坐標系與圖像坐標系之間的旋轉矩陣R和平移向量T,完成配準[13-14]。
標記點序列自動配對方法常用的是迭代就近點算法,該算法是一種基于最小二乘法的匹配方法,其可以重復確定標記點點集之間的對應關系,并計算兩個對應點集之間的變換矩陣,是一種配準精度較高的算法[15-17]。但是,該算法對掃描點集的初始配準位置有要求,魯棒性較差,計算時間長,且經(jīng)試驗發(fā)現(xiàn)匹配結果不可靠,容易陷入局部最優(yōu)解[18-20]。為此,本研究提出了一種基于標記點的全自動三維醫(yī)學圖像配準方法,并對其可行性進行了研究,其結果顯示,該方法不需要醫(yī)生在圖像上手動拾取標記點,并能克服傳統(tǒng)標記點序列配對方法的弊端。
本研究提出了一種基于標記點的三維醫(yī)學圖像配準方法,首先基于標記點的灰度特征結合其幾何特性,初步粗篩出候選標記點并計算其中心,而后利用參考標記點之間的幾何空間位置關系,結合配準精度要求從候選標記點中篩選出真正的標記點,并實現(xiàn)圖像配準。通過一系列的試驗表明,該方法配準誤差在1 mm以內,具有較好的識別效果和配準精度,可滿足臨床應用要求。此外,該方法運算量較小,可以實現(xiàn)實時處理,故可用于手術導航及手術機器人的術中配準,且在其他相關領域也具有廣泛的應用前景。
[1]孫曦,周正東.3D醫(yī)學圖像中標志點的自動識別與定位[J].現(xiàn)代生物醫(yī)學進展,2008,8(4):709-712.
[2]Gerber N,Gavaghan KA,Bell BJ,et al.Highaccuracy patient-to-image registration for the facilitation of image-guided robotic microsurgery on the head[J].IEEE Trans BiomedEng,2013,60(4):960-968.
[3]劉振穎,張永壽.基于控制點圖像配準方法的研究[J].中國醫(yī)學裝備,2011,8(3):6-9.
[4]于穎,聶生東.醫(yī)學圖像配準技術及其研究進展[J].中國醫(yī)學物理學雜志,2009,26(6):1485-1489.
[5]白晶,丁輝,王廣志,等.手術導航中人體標志點注冊方法和注冊精度研究[J].生物醫(yī)學工程學雜志,2008,25(6):1242-1248.
[6]Taylor RH,Stoianovici D.Medical robotics in computer-integrated surgery[J].IEEE T Robotic Autom,2003,19(5):765-781.
[7]向華.手術導航三維空間配準技術研究[D].北京:清華大學,2012.
[8]Brandt G,Zimolong A,Carrat L,et al.CRIGOS:a compact robot for image-guided orthopedic surgery[J].IEEE Trans Inf Technol Biomed,1999,3(4):252-260.
[9]申艷平.醫(yī)學圖像配準技術[J].中國醫(yī)學物理學雜志,2013,30(1):3885-3889.
[10]司璇.光學手術導航系統(tǒng)中實時自動注冊技術的研究[D].廣州:華南理工大學,2016.
[11]Hong J,Hashizume M.An effective point-based registration tool for surgical navigation[J].Surg Endosc,2010,24(4):944-948.
[12]Lin Q,Yang R,Cai K,et al.Real-time automatic registration in optical surgical navigation[J].Infrared Phys Techn,2016,76:375-385.
[13]Fan Y,Jiang D,Wang M,et al.A new markerless patient-to-image registration method using a portable 3D scanner[J].Med Phys,2014,41(10):1019-1010.
[14]Cai K,Yang R,Lin Q,et al.Tracking multiple surgical instruments in a near-infrared optical system[J].Comput Assist Surg(Abingdon),2016,21(1):46.
[15]Zheng G,Gerber N,Widmer D,et al.Automated detection of fiducial screws from CT/DVT volume data for image-guided ENT surgery[J].Conf Proc IEEE Eng Med Biol Soc,2010,2010(10):2325-2328.[16]Shamir R,F(xiàn)reiman M,Joskowicz L,et al.Robotassisted image-guided targeting for minimally invasive neurosurgery:planning registration and in-vitro experiment[J].Med Image Comput Comput Assist Interv,2005,8(Pt 2):131-138.
[17]He Y,Liang B,Yang J,et al.An iterative closest points algorithm for registration of 3D laser scanner point clouds with geometric features[J].Sensors,2017,17(8):1862.
[18]Tseng C,Chen H,Wang S,et al.Image-guided robotic navigation system for neurosurgery[J].J Robotic Syst,2015,17(8):439-447.
[19]Wu YF,Wang W,Lu KQ,et al.A new method for registration of 3D point sets with low overlapping ratios[J].Procedia Cirp,2015,27:202-206.
[20]Salvi J,Matabosch C,F(xiàn)ofi D,et al.A review of recent range image registration methods with accuracy evaluation[J].Image Vision Compu,2007,25(5):578-596.