[Abstract]Objective:Todesignanintellgentimagequalitycontrolalgorithmmodelforadominalanteroposterioradiographbased onknowledgegraphforclinicalpractice.Methods:UtilizingtheAnhuiProvincialImagingCloudPlatform,4499de-identified abdominalradiographimageswereincluded.Allimagesweredividedintoatrainingset(3136images),avalidationset (457iages), andatestset(906images)inaratioof7:1:2.Aknowledgegraph forsingle-personandmulti-personqualitycontrollabeling wasconstructed,anartifcialintellgence(AI)qualitycontrolmodelwastrained.Takingtheresultsofthreequalitycontrol expertsasthereferencestandardforqualitycontrol,theimagetechnicalqualityaccuracyandimageclarityacuracyamong thesingle-person,multi-personandAIqualitycontrolmethodswerecompared.Thecorelationsbetweensingle-personquality controlmulti-personqualitycontrolandreferencestandardswereevaluatedResults:Inthetestset,comparedwiththe referencestandard,theaverageacuracyofAIqualitycontrolwashigherthanthatofsingle-personqualitycontrol(A,B)( Plt; 0.01).IntermsofimageclaritythecorelationofIqualitycontrolwasthehighest(O.754),followedbymulti-personquality control(0.671),single-personqualitycontrolA(0.625)andB(O.617)insequence.Conclusions:Inthequalityassessment ofimageprojectiontechniqueandimageclarity,theefectofAIqualitycontrolissignificantlybetterthanthatof single-personqualitycontrol,andevenforsomelabels,itisslightlybeterthanthatofmuli-personqualityontrol,owing potential for clinical application.
[Keywords] Abdominal Radiograph;Image quality control;Knowledge graph;Artificial intellgence
腹部前后立位片(腹部平片)作為一種低成本、易獲取且非侵入性的常規(guī)檢查手段1,對腹部疾病的診斷至關(guān)重要。在醫(yī)療服務(wù)過程中,質(zhì)量控制(質(zhì)控)是確保醫(yī)療安全和提高診斷準確性的核心要素[2]。目前,腹部平片的影像質(zhì)控主要依賴人工判定,實現(xiàn)智能質(zhì)控仍面臨諸多挑戰(zhàn)。
近年來,深度學(xué)習(xí)技術(shù)在醫(yī)學(xué)圖像應(yīng)用中表現(xiàn)出色,但缺乏先驗知識、限制了其性能提升。知識圖譜可通過圖形化的方式呈現(xiàn)豐富的語義信息[3],提供先驗知識。知識圖譜已在醫(yī)學(xué)影像領(lǐng)域圖像標注[4]、放射學(xué)報告生成[5]等方面發(fā)揮了顯著作用,提供了強大的先驗知識框架,幫助深度學(xué)習(xí)模型更好地適應(yīng)影像數(shù)據(jù)的復(fù)雜性和變異性。本研究將知識圖譜與深度學(xué)習(xí)技術(shù)相融合,建立影像智能質(zhì)控算法模型,探討腹部平片人工智能(AI)質(zhì)控的可行性。
1資料與方法
1.1一般資料
使用數(shù)據(jù)均為2019年6月至2021年12月在安徽省影像云平臺獲得的5498張腹部平片。納入標準: ① 拍攝體位為前后立位; ② 年齡 ?3 歲; ③ 經(jīng)脫敏處理,符合國家標準《信息安全技術(shù)個人信息安全規(guī)范:GB/T35273—2020》6的要求。最終4499張腹部平片納入研究。本研究使用匿名化的信息數(shù)據(jù)開展研究,經(jīng)安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院倫理委員會批準,免除倫理審查。
1.2 知識圖譜構(gòu)建
參考《放射科管理規(guī)范與質(zhì)控標準(2017版)》7,通過與安徽中醫(yī)藥大學(xué)第一附屬醫(yī)院、安徽醫(yī)科大學(xué)第一附屬醫(yī)院及中國科學(xué)技術(shù)大學(xué)第一附屬醫(yī)院10位具有3年以上放射科經(jīng)驗的技師討論并制訂腹部平片質(zhì)控標準(表1)。
表1腹部平片質(zhì)控標準

參考Zhao等[8]提出的“質(zhì)控類別-質(zhì)控特征-細節(jié)特征\"3層結(jié)構(gòu)模型,構(gòu)建高效的影像質(zhì)控知識圖譜(表2)。該圖譜涵蓋了圖像投照技術(shù)質(zhì)量和圖像清晰度2個類別,精細整合了腹部平片幾乎全部的非規(guī)范擺位質(zhì)量特征。
1.3腹部平片質(zhì)控數(shù)據(jù)標注
將腹部平片依照知識圖譜進行標注,參與標注的醫(yī)師均具有3年以上臨床經(jīng)驗,并接受嚴格的專業(yè)培訓(xùn)。具體流程:由醫(yī)師A、B分別對圖像進行質(zhì)控評估,得到標注結(jié)果A和B,此過程為單人質(zhì)控,結(jié)果一致則直接完成標注;若出現(xiàn)分歧,則邀請具有10年以上臨床經(jīng)驗的醫(yī)師C做決定性標注,得到標注結(jié)果C,此過程為多人質(zhì)控。同一放射科醫(yī)師對同一圖像只能標注1次。多人質(zhì)控數(shù)據(jù)將用于深度學(xué)習(xí)模型訓(xùn)練、驗證和測試。若不存在質(zhì)控知識圖譜上的情況,相關(guān)圖像則被判定為正常圖像。
1.4AI模型的訓(xùn)練及建立
在模型訓(xùn)練環(huán)節(jié)分別采用TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò)。針對知識圖譜的圖像技術(shù)質(zhì)量節(jié)點相關(guān)數(shù)據(jù)集的分類任務(wù),選用TResNet神經(jīng)網(wǎng)絡(luò)進行處理;對知識圖譜的圖像清晰度節(jié)點相關(guān)數(shù)據(jù)集回歸為不同的等級,選用ResNet-50神經(jīng)網(wǎng)絡(luò)。2個神經(jīng)網(wǎng)絡(luò)的初始參數(shù)均來源于在ImageNet數(shù)據(jù)集上預(yù)訓(xùn)練過的模型參數(shù)。將4499張腹部平片按7:1:2比例分為訓(xùn)練集3136張、驗證集457張和測試集906張。
1.5 質(zhì)控審核
邀請3位具有10年以上放射科經(jīng)驗的質(zhì)控專家對測試集AI質(zhì)控結(jié)果進行審核。AI質(zhì)控結(jié)果與人工質(zhì)控結(jié)果不一致時,由專家討論并做出最終審核,將其審核結(jié)果作為參考標準。
1.6 評估指標
采用精確率評估單人質(zhì)控、多人質(zhì)控及AI質(zhì)控對圖像技術(shù)質(zhì)量和圖像清晰度的預(yù)測能力。為確保精確率的準確性,設(shè)定閾值為 0.99 。精確率的計算公真陽性式:精確率 Σ=Σ 其中,真陽性代表真陽性 + 假陽性單人質(zhì)控、多人質(zhì)控和模型預(yù)測中的真陽性病例數(shù),假陽性則代表假陽性病例數(shù)。
1.7 統(tǒng)計學(xué)分析
采用SPSS23.0軟件進行圖像技術(shù)質(zhì)量AI質(zhì)控、單人質(zhì)控(A、B)及多人質(zhì)控之間的重復(fù)測量方差分析。使用Spearman相關(guān)分析評估單人質(zhì)控(A、B)、多人質(zhì)控與參考標準之間的相關(guān)性。
表2腹部平片質(zhì)控知識圖譜結(jié)構(gòu)實體設(shè)計

2結(jié)果
2.1單人質(zhì)控分析
測試集共906例,男586例,女320例。在圖像技術(shù)質(zhì)量評估中,單人質(zhì)控A和B的結(jié)果完全一致209例( 23.07% ,不一致697例( 76.93% ;在圖像清晰度評估中,單人質(zhì)控A和單人質(zhì)控B結(jié)果完全一致337例 (37.20% ),不一致569例 (62.80% )。
2.2圖像技術(shù)質(zhì)控結(jié)果(表3)
測試集中,AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)結(jié)果在圖像技術(shù)質(zhì)量上的平均精確率分別為87.04%.83.47%.75.46% 和 75.53% 。AI質(zhì)控精確率均高于單人質(zhì)控(A、B(均 Plt;0.01 );與多人質(zhì)控比較,差異無統(tǒng)計學(xué)意義( P=0.173 )。
2.3圖像清晰度質(zhì)控結(jié)果(表4)
AI質(zhì)控、多人質(zhì)控和單人質(zhì)控(A、B)在圖像清晰度上的平均精確率分別為 70.23%.70.15%.63.88%
和 63.86% 。其中AI質(zhì)控結(jié)果與參考標準的相關(guān)系數(shù)最大(0.754),其余依次為多人質(zhì)控(0.671)和單人質(zhì)控A(0.625)、B(0.617)。
3結(jié)論
隨著醫(yī)學(xué)影像數(shù)據(jù)的增長,特別是在質(zhì)控方面,傳統(tǒng)的人工質(zhì)控不僅耗時且易受個人主觀判斷的影響。與此同時,AI在放射學(xué)領(lǐng)域的應(yīng)用已顯示出其高智能化、準確性及客觀性等顯著優(yōu)勢[9-10]。通過采用智能工具來標準化影像質(zhì)量報告,可有效減少評估者之間的差異,提高質(zhì)控效率,從而應(yīng)對海量影像數(shù)據(jù)的質(zhì)量審查需求[11]。本研究提出了一種創(chuàng)新腹部平片的AI質(zhì)控方法,基于收集整理的腹部平片數(shù)據(jù),構(gòu)建質(zhì)控知識圖譜,引導(dǎo)標注質(zhì)控數(shù)據(jù),建立相應(yīng)的數(shù)據(jù)集;選取了2種卷積神經(jīng)網(wǎng)絡(luò)TResNet12和ResNet- ?50[13] 進行模型訓(xùn)練,并通過為各類別標簽分配不同權(quán)重的策略14應(yīng)對類別不平衡。該AI質(zhì)控方法不僅顯著提升了質(zhì)控效率,且增強了準確性與一致性,可有效減輕放射科醫(yī)師的工作負擔(dān),優(yōu)化其專業(yè)診斷能力。
表3人工質(zhì)控與AI質(zhì)控的圖像技術(shù)質(zhì)量精確率
%

表4人工質(zhì)控、AI質(zhì)控的圖像清晰度精確率

本研究中,在置信度閾值為0.99時,與參考標準比較,圖像技術(shù)質(zhì)量AI質(zhì)控的平均精確率達 87.04% 顯著高于單人質(zhì)控(A、B)( 75.46% 和 75.53% ),差異有統(tǒng)計學(xué)意義。此外,圖像清晰度AI質(zhì)控的平均精確率為 70.23% ,高于多人質(zhì)控( 70.15% )及單人質(zhì)控(A、B)( 63.88% 和 63.86% )。圖像清晰度AI質(zhì)控與參考標準的相關(guān)系數(shù)為0.754,高于多人質(zhì)控(0.671)和單人質(zhì)控(A、B)(0.625和0.617)。上述結(jié)果證明了AI質(zhì)控在腹部平片質(zhì)量異常檢測中的明顯優(yōu)勢,其效率、準確率及敏銳的識別力充分展示了在醫(yī)學(xué)影像圖像質(zhì)控領(lǐng)域的巨大潛力。
本研究的局限性: ① 訓(xùn)練數(shù)據(jù)的標注最多由3位放射科醫(yī)師完成,存在主觀判斷的差異。為降低這種差異確保結(jié)果的準確性,未來可考慮增加更多醫(yī)師參與標注。 ② 前期研究發(fā)現(xiàn),TResNet在眾多圖像分類任務(wù)中表現(xiàn)出色,在ImageNet等數(shù)據(jù)集上取得顯著的成績[15-16]。同時, ResNet-50 也被廣泛應(yīng)用于各類圖像處理任務(wù)中,如目標檢測[17和語義分割[18]等。在訓(xùn)練階段,本研究采用了TResNet和ResNet-50神經(jīng)網(wǎng)絡(luò),但未與其他模型進行對比。為提升模型選擇的科學(xué)性和適用性,后續(xù)研究應(yīng)考慮與其他模型進行比較評估。 ③ 采用的模型主要針對腹部平片質(zhì)控設(shè)計,使用的訓(xùn)練數(shù)據(jù)也僅限于腹部平片。未來將擴大模型應(yīng)用范圍,使其能涵蓋更廣泛的放射影像質(zhì)控任務(wù)。
總之,AI質(zhì)控效果不僅超越了單人質(zhì)控效果,且在多個節(jié)點優(yōu)于多人質(zhì)控效果。基于知識圖譜的智能質(zhì)控方法能準確識別并判斷大部分類型的圖像質(zhì)量特性,提升影像質(zhì)控的效率和質(zhì)量。
[參考文獻]
[1]BARBA E,LIVOVSKY D M,RELEA L,et al.Evaluation of abdominal gas byplain abdominal radiographs[J]. Neurogastroenterol Motil,2023,35(2):e14485.
[2]LARSON D B,BOLAND G W. Imaging quality control intheera ofartificial intelligence[J].JAm Coll Radiol,2019,16(9):1259-1266.
[3]JI S,PAN S,CAMBRIA E,et al.A survey on knowledge graphs:representation,acquisition,and applications [J]. IEEETrans Neural Netw Learn Syst,2021,33(2):494- 514.
[4]SEAH JC Y,TANG C H M,BUCHLAK Q D,et al. Effect of a comprehensive deep-learning model on the accuracy of chest X-ray interpretation by radiologists:a retrospective,multireader multicase study[J]. Lancet Digit Health,2021,3(8):e496-e506.
[5]WANG S,LIN M,GHOSAL T,et al. Knowledge graph applications in medical imaging analysis:a scoping review[J]. Health Data Sci,2022,2022:9841548.
[6]國家市場監(jiān)督管理局,國家標準化管理委員會.信息安 全技術(shù)個人信息安全規(guī)范:GB/T35273-2020[S].北 京:中國標準出版社,2020:3-13.
[7]中華醫(yī)學(xué)會放射學(xué)分會.放射科管理規(guī)范與質(zhì)控標 準(2017版)[S].北京:人民衛(wèi)生出版社,2017.
[8] ZHAO S,GU Z,HAN X,et al. Construction and application of radiologic interpretation knowledge graph based onthree-layer structure model[C]//2O22 IEEE 2nd International Conference on Mobile Networks and WirelessCommunications (ICMNWC).Tumkur,Karnataka,India:IEEE,2022:1-6.
[9]ESTEVA A,KUPREL B,NOVOA R A,et al. Dermatologist-level classification of skin cancerwith deep neural networks[J]. Nature,2017,542(7639):115-118.
[10]EL NAQA I,HAIDER M A,GIGER M L,et al. Artificial intelligence: reshaping the practice of radiological sciences in the 21st century[J].Br JRadiol,2020,93 (1106):20190855.
[11] SAMANI Z R,ALAPPATT J A,PARKER D,et al. QCautomator:deep learning-based automated quality control for diffusion MR images[J].Front Neurosci,2020, 13:1456.
[12]RIDNIK T,LAWEN H,NOY A,etal. TResNet: high performance GPU-Dedicatedarchitecture [C]//2021 IEEE Winter Conference on Applications of Computer Vision(WACV).Waikoloa,HI,USA:IEEE,2021:1399- 1408.
[13]HE K,ZHANG X,REN S,et al. Deep residual learning for image recognition[C]//2016 IEEE Conference on Computer Vision and Pattern Recognition (CVPR). Las Vegas,NV,USA:IEEE,2016:770-778.
[14]BHUSAL D,PANDAY S P. Multi-label classification of thoracic diseases using dense convolutional network on chest radiographs[J].arXiv Preprint arXiv:03583, 2022.
[15]DENG J,DONG W,SOCHER R,et al. ImageNet : a large-scale hierarchical image database[C]//2OO9 IEEE Conference on Computer Vision and Pattern Recognition.Miami,F(xiàn)L:IEEE,2009:248-255.
[16]LIN T Y,MAIRE M,BELONGIE S,et al. Microsoft COCO:Common objects in context[M]//Fleet D,Pajdla T,Schiele B,etal. Computer Vision-ECCV 2014:Vol. 8693.Cham:Springer International Publishing,2014: 740-755.
[17]REDMON J,F(xiàn)ARHADI A. YOLOv3 :an incremental improvement[J].arXiv Preprint arXiv:1804.02767, 2018.
[18]CHEN L C,PAPANDREOU G,KOKKINOS I,et al. Deeplab:semantic image segmentation with deep convolutional nets,atrous convolution,and fully connected CRFs[J].IEEE Trans Pattern Anal Mach Intell,2017, 40(4) :834-848.
中國中西醫(yī)結(jié)合影像學(xué)雜志2025年5期