文獻標識碼: A
DOI:10.16157/j.issn.0258-7998.181514
中文引用格式: 周進凡,張榮芬,馬治楠,等. 基于深度學習的胸部X光影像分析系統[J].電子技術應用,2018,44(11):29-32.
英文引用格式: Zhou Jinfan,Zhang Rongfen,Ma Zhinan,et al. Chest X-ray image analysis system based on deep learning[J]. Application of Electronic Technique,2018,44(11):29-32.
0 引言
胸腔積液是臨床常見的胸膜病變,也是多種疾病的伴隨表現,據統計有50多種疾病可直接或間接引起胸腔積液[1]。在胸部異常改變的68例白血病患者中,白血病胸部X線表現為浸潤性改變49例,占72%[2]。此外肺氣腫、氣胸以及肺不張也是某些嚴重疾病的癥狀。由于個體差異,在疾病前期或者發生之前這些癥狀并不一定很明顯,醫院放射科室傳統的診斷方式可能并不能及時、準確地檢測出相應的癥狀為醫生提供決策依據,導致患者不能及早得到相應的治療而錯過最佳治療時間。
傳統的計算機輔助胸部X光醫學影像識別主要是針對特定任務建立識別規則,手動提取特征并進行特征訓練,該方案依然脫離不了人工標注這一過程。人工標注因為主觀性問題,所以識別準確率存在比較大的波動。2017年11月斯坦福大學吳恩達團隊提出了一種名為CheXNet的新技術,該技術利用卷積神經網絡在NIH(美國國立衛生研究院)胸部X光影像數據集上進行訓練、測試,得到了浸潤檢測準確率88.31%、胸腔積液檢測準確率72.04%、肺氣腫92.60%、氣胸89.32%、肺不張82.09%的優良效果,該準確率高于擁有多年從業經驗的放射科醫生檢測的準確率,但是該方法在進行訓練時使用了121層卷積神經網絡,由于使用了深層次神經網絡使得訓練過程對計算機設備硬件要求高,而且訓練時間長,訓練好的模型較大,不利于移植到嵌入式平臺進行識別。本文提出一種在GPU服務器利用輕量級卷積神經網絡MobileNets對胸部X光影像數據進行訓練,并將訓練好的網絡模型移植到嵌入式Jetson TX2核心板,在嵌入式平臺下實現對胸部X光影像數據進行分析的方法。該方法在識別準確率高于吳恩達團隊提出檢測方法的同時縮短了對X光影像數據分析所需要的時間。
1 胸部X光分析系統總體設計
本文的胸部X光影像分析系統主要由訓練模塊、識別模塊、網絡傳輸模塊這三部分組成,整個系統的嵌入式平臺在NVIDIA公司生產的Jetson TX2核心板上進行搭建,并通過該平臺實現對整個系統的協調控制。訓練模塊是在GPU服務器上利用深度學習技術建立卷積神經網絡模型,然后利用該模型對標注好的X光影像數據集進行訓練,將訓練好的神經網絡模型移植到Jetson TX2核心板。識別模塊是在嵌入式平臺下利用移植到Jetson TX2核心板的神經網絡模型對接收到的來自X光機的胸部X光影像數據進行分析,得到正常、胸腔積液、浸潤、肺氣腫、氣胸以及肺不張六個類別的分類結果。網絡傳輸模塊主要分為兩個部分,一部分為通過以太網模塊將X光機拍攝的胸部X光影像傳輸到嵌入式平臺,另一部分是通過WiFi模塊將嵌入式平臺接收到的胸部X光影像信息以及嵌入式平臺對該影像數據的分析結果上傳到醫院云平臺進行數據的存儲與分發,為相應科室的醫生提供疾病診斷的決策依據。胸部X光影像分析系統具體設計框圖如圖1所示。
2 胸部X光分析系統硬件設計
嵌入式核心板Jetson TX2配備以太網模塊、WiFi模塊等核心功能模塊共同構建了胸部X光影像分析系統的硬件平臺。Jetson TX2核心板以Tegra Parker處理器作為載體,搭載Ubuntu 16.04操作系統,然后與以太網模塊、WiFi模塊協同作用,在嵌入式平臺下實現胸部X光影像分析、數據傳輸等功能。
胸部X光影像分析系統網絡通信模塊主要由兩個部分構成:第一部分為X光機與嵌入式平臺之間的網絡傳輸,該部分通過以太網模塊設計實現,主要實現在醫院局域網內將拍攝到的胸部X光影像數據通過以太網傳輸到Jetson TX2核心板的功能,以太網通信模塊的外圍電路圖如圖2所示;第二部分為嵌入式平臺與醫院云平臺之間的通信功能,該部分通過WiFi模塊設計實現,主要實現將Jetson TX2核心板接收到的X光影像數據以及數據分析結果上傳到醫院云平臺的功能,WiFi通信模塊的外圍電路圖如圖3所示。
3 胸部X光分析系統軟件設計
胸部X光分析系統軟件設計由GPU服務器端程序設計與嵌入式端程序設計兩部分組成。GPU服務器端程序設計主要是在Keras深度學習框架之下,使用TensorFlow作為后端,采用Python語言進行編程對胸部X光醫學影像數據集中的圖片尺寸進行歸一化處理,然后利用MobileNets卷積神經網絡對該數據集進行訓練,并將訓練好的神經網絡模型移植到嵌入式平臺。嵌入式平臺程序設計主要是在嵌入式平臺配置深度學習所需要的運行環境,采用Python高級編程語言,在嵌入式平臺上對GPU服務器上訓練好的神經網絡模型進行讀取,并在該模型下對接收到的胸部X光影像數據進行分類識別。胸部X光影像分析系統軟件設計流程如圖4所示。
4 基于MobileNets網絡的胸部X光影像分析
MobileNets網絡是由Google公司提供的一款輕量級的深層卷積神經網絡,主要用于手機和嵌入式設備。該神經網絡是基于流線型的高效網絡架構,它使用深度可分離卷積來構建輕量級深層卷積神經網絡。MobileNets卷積神經網絡可以將標準卷積分解成一個深度卷積和一個點卷積(1×1)以此來減少計算量,降低模型的大小。具體分解步驟如圖5所示,其中M代表輸入的通道數量,DK代表卷積核的寬和高,DF代表輸入特征圖的寬和高,N代表輸出通道數量。
從圖5可以得出,標準卷積的計算成本為:
通過標準卷積和深度可分離卷積的計算成本對比可以得出,MobileNets網絡通過對卷積核的靈活應用,減少了網絡模型參數量,使其計算成本得到了很大程度的減少。
MobileNets共有28層網絡,除最后的全連接層以外,每一層網絡之后都通過BN算法對每個神經元做歸一化處理,提高網絡的訓練速度。
在Ubuntu 16.04系統之下編寫一個shell腳本程序從NIH胸部X光影像數據集中提取其中的正常、胸腔積液、浸潤、肺氣腫、氣胸以及肺不張六個類別共計81 200張圖像作為本系統的數據集,將提取出來的數據集命名為X-ray,X-ray數據集中共包含有60 384張正常圖像、9 551張浸潤圖像、3 959張胸腔積液圖像、895張肺氣腫圖像、2 199張氣胸圖像以及4 212張肺不張圖像。在對模型進行訓練之前,首先對數據集中圖像進行預處理,將每張圖片分辨率歸一化為128×128,然后將該數據分為訓練集和測試集兩部分,訓練集占比75%,測試集占比25%。數據集訓練過程中,使用ADM算法對網絡進行優化,對數損失函數作為整個網絡的損失函數,并用sigmoid函數作為激活函數,設置迭代次數為4 000次。本實驗中訓練結束的標志主要從兩個方面進行考察,第一個方面為整個訓練達到設置的迭代次數的上限以后訓練結束,第二方面為loss(損失函數)值收斂不再減小,此時可以認為當前狀態下此網絡已基本達到最優化,訓練結束。訓練結束后將得到的網絡移植到Jetson TX2核心板在嵌入式平臺下對胸部X光影像數據進行分析。
5 系統結果分析
本實驗采用MobileNets卷積神經網絡對81 200張胸部X光影像中隨機選取的60 900張(占比75%)胸部X光影像進行訓練得到可以識別胸腔積液和浸潤兩種癥狀的神經網絡。在進行模型訓練時,設置每一個Epoch代表迭代200次,當Epoch=13時,即迭代次數達到2 600次時,loss值收斂,此時網絡達到基本最優化,整個訓練結束,大約用時90 min,該方法所用時間低于吳恩達團隊利用121層卷積網絡進行訓練所需時間。訓練過程中loss值變化的過程如圖6所示。
訓練結束后,將該模型移植到嵌入式平臺,利用剩余的20 300張(占比25%)胸部X光影像作為測試集,驗證整個模型對胸腔積液、浸潤兩個類別的平均識別率,得到91.01%的平均正確率,其中正常類別識別準確率達到了98.68%。將本文中提及的胸部X光影像分析系統命名為ML-XNet。表1表示專業放射科醫生、吳恩達團隊提出的CheXNet技術和ML-XNet對胸腔積液、浸潤、肺氣腫、氣胸以及肺不張的識別準確率。
從表1可以看出,本文所使用的方法在對胸腔積液、浸潤、肺氣腫、氣胸以及肺不張五種常見癥狀的識別效果上,更優于放射科醫生以及CheXNet方法。
隨機傳輸4張胸部X光影像數據進行測試,識別所需時間為30 s左右,遠低于目前放射科醫生檢測所需時間,測試結果如圖7所示,其中Reality為圖片對應癥狀的真實值,Prediction為利用本文所述方法進行分析得到的預測值,Pneumothrax代表氣胸,Infiltration代表浸潤,Atelectasis代表肺不張。從圖中可以看出通過本系統對4張胸部X光影像的預測結果均與真實結果一致。
6 結論
本系統通過在Jetson TX2核心板上移植GPU服務器上訓練好的MobileNets卷積神經網絡模型,在嵌入式平臺下實現對胸部X光影像的分析。隨著X光機的發展,可以將本系統中的嵌入式識別平臺與X光機結合,生產出既能拍攝胸部X光影像又能對胸部X光影像進行分析的一體機,使胸部X光影像的分析正確率更高、操作更簡單。
參考文獻
[1] 李翔云,李薇,張澤明.結核性、惡性胸腔積液的鑒別診斷的研究進展[J].中國繼續醫學教育,2018,10(11):109-112.
[2] 尚延海,張淑香,張志偉,等.白血病胸部浸潤的臨床X線表現(附68例分析)[J].醫學影像學雜志,2002(6):449-451.
[3] 張巧麗,趙地,遲學斌.基于深度學習的醫學影像診斷綜述[J].計算機科學,2017,44(S2):1-7.
[4] 羅濤,牟軒沁.一種胸部X射線攝影圖像中結節檢測的多尺度匹配濾波器[J].西安交通大學學報,2011,45(4):30-35.
[5] 薛迪秀.基于卷積神經網絡的醫學圖像癌變識別研究[D].合肥:中國科學技術大學,2017.
[6] HOWARD A G,ZHU M,CHEN B,et al.MobileNets:Efficient convolutional neural networks for mobile vision applications[J].avXiv:1704.04861[cs.CV].
[7] 何雪英,韓忠義,魏本征.基于深度學習的乳腺癌病理圖像自動分類[J/OL].計算機工程與應用,2018(12).
作者信息:
周進凡,張榮芬,馬治楠,葛自立,劉宇紅
(貴州大學 大數據與信息工程學院,貴州 貴陽550025)