[發明專利]一種基于深度學習對胸部CT影像的分類方法在審
| 申請號: | 201810585175.1 | 申請日: | 2018-06-06 |
| 公開(公告)號: | CN108846432A | 公開(公告)日: | 2018-11-20 |
| 發明(設計)人: | 王金強;劉靖峰 | 申請(專利權)人: | 深圳神目信息技術有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06T7/11;G06N3/04 |
| 代理公司: | 武漢藍寶石專利代理事務所(特殊普通合伙) 42242 | 代理人: | 廉海濤 |
| 地址: | 518000 廣東省深圳市龍華區觀湖*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 胸部CT 分類 影像 量化 分類結果 分析判斷 工作負擔 生理指標 訓練模型 影響疾病 影像數據 影像特征 職業醫生 學習 診斷 醫生 成熟 分析 | ||
本發明涉及一種基于深度學習對胸部CT影像的分類方法,利用當前比較成熟的深度學習方法對胸部CT影像特征進行提取和分析,最終利用已有影像數據集進行訓練模型結構,來實現影響疾病判斷的多種指標的量化分類,為診斷醫生提供量化后的生理指標分類結果,降低職業醫生的工作負擔以及分析判斷難度。
技術領域
本發明涉及人工智能領域中的深度學習與醫學影像處理的交叉領域,具體涉及一種基于深度學習對胸部CT影像的分類方法。
背景技術
隨著社會快速發展和生活質量不斷提高,人們對健康也越來越重視,作為臨床治療的診斷依據,醫學影像技術的精確識別變得越來越重要。肺部疾病是一種常見的疾病,包括肺不張、積液、浸潤、肺塊、結節、肺炎等。一般診斷方法則是根據胸部CT影像信息判斷是否患有某種疾病。一般的,具有豐富臨床經驗的職業醫生可以根據自身經驗進行準確判斷,但涉及到不同性別和年齡差異性特別大的時候,日益增大的工作量和識別的難度逐漸上升,尤其在醫學資源比較緊缺的今天,一個替代傳統診斷識別方法的機器輔助診斷影像技術無疑會加快病人的診斷和治療過程。
發明內容
本發明針對現有技術中存在的技術問題,提供一種利用當前比較成熟的深度學習方法對胸部CT影像特征進行提取和分析,最終利用已有影像數據集進行訓練模型結構,來實現影響疾病判斷的多種指標的量化分類,為診斷醫生提供量化后的生理指標分類結果,降低職業醫生的工作負擔以及分析判斷難度。
本發明解決上述技術問題的技術方案如下:
一種基于深度學習對胸部CT影像的分類方法,包括以下步驟:
步驟1,對胸部CT影像進行預處理,從原始的影像樣片中分割出完整的含有雙肺的主要區域;
步驟2,采用3D-Unet算法對預處理的胸部CT影像中的密集部分進行分割,同時使用卷積神經網絡對密集部分影像進行特征提取;
步驟3,將提取的密集部分影像特征輸入到深度神經網絡模型中,對胸部CT影像密集塊中的結節位置、密度、最長徑和體積進行精檢測分類;所述深度神經網絡模型的網絡結構由多個DenseNet和多個Transition Block的交替組合構成。
進一步,所述步驟1還包括對原始的胸部CT影像進行旋轉或縮放的增廣處理,以增大和多樣化醫學影像圖的樣本集。
進一步,所述使用卷積神經網絡對密集部分影像進行特征提取包括:
深度卷積神經網絡采用Conv(7*7)的卷積結構對影像進行卷積計算、利用Pooling(3*3)的結構進行池化處理。
進一步,所述深度神經網絡模型包括6層結構,即包括3個DenseNet和3個Transition Block塊交替組合構成的網絡結構,為了保證網絡中層與層之間最大程度的信息傳輸,所述DenseNet網路采用了直接將所有層連接起來的方法,所述Transision Block用于轉換模型之間的參數,用于模型調優過程。
本發明的有益效果是:首先通過對胸部CT影像對關鍵部位進行影像分割,然后利用深度卷積神經網絡技術通過卷積池化過程進行特征提取,然后再經過深度神經網絡模型對影響肺部疾病診斷的多種指標進行量化分類,有效降低了職業醫生在肺部疾病診斷過程中的工作負擔以及分析判斷難度。
附圖說明
圖1為本發明方法流程圖;
圖2為深度卷積神經網絡架構圖;
圖3為DenseNet的網絡結構圖。
具體實施方式
以下結合附圖對本發明的原理和特征進行描述,所舉實例只用于解釋本發明,并非用于限定本發明的范圍。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳神目信息技術有限公司,未經深圳神目信息技術有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810585175.1/2.html,轉載請聲明來源鉆瓜專利網。





