[發明專利]基于級聯卷積的圖像分割方法在審
| 申請號: | 201910248901.5 | 申請日: | 2019-03-29 |
| 公開(公告)號: | CN109993735A | 公開(公告)日: | 2019-07-09 |
| 發明(設計)人: | 李孝杰;羅超;史滄紅;吳琴;王錄濤;李俊良;劉書樵;張憲;伍賢宇 | 申請(專利權)人: | 成都信息工程大學 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06T7/10;G06T7/11 |
| 代理公司: | 北京元本知識產權代理事務所 11308 | 代理人: | 王紅霞 |
| 地址: | 610225 四川省成都*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 醫學圖像信息 二維數據 級聯 卷積 病變區域 圖像分割 預處理 神經網絡模型 標簽信息 二維卷積 神經網絡 多層 標準化 圖像分割技術 采集 邊緣標注 自動分割 分割 | ||
本發明公開了一種基于級聯卷積的圖像分割方法,涉及圖像分割技術領域。該基于級聯卷積的圖像分割方法包括以下步驟:步驟S1、采集多張病變區域的醫學圖像信息;步驟S2、將采集到的醫學圖像信息的病變區域逐層進行人工邊緣標注,以得到標簽信息;步驟S3、將標簽信息進行標準化預處理,以得到二維數據集;步驟S4、建立基于級聯卷積的多層二維卷積神經網絡,并利用二維數據集對多層二維卷積神經網絡進行訓練,以得到神經網絡模型;步驟S5、輸入待分割病人的醫學圖像信息并進行標準化預處理,以得到待處理二維數據集;步驟S6、將待處理二維數據集輸入至所述神經網絡模型,將所述待分割病人的醫學圖像信息進行自動分割,以得到該病人的病變區域。
技術領域
本發明涉及圖像分割技術領域,特別是涉及一種基于級聯卷積的圖像分割方法。
背景技術
醫學圖像分割的一直受到人們的高度重視,而分割算法又是影響分割效果的關鍵因素,因此學者們不斷地對分割算法進行研究,針對醫學圖像的特點,涌現許多優良的算法,如基于邊界的分割方法、基于區域的分割方法等等,并且在相應年代輔助醫學診斷者進行診斷并產生了積極的效果。
但隨著人們的健康意識逐漸增強和醫學水平的不斷發展,對看病的準確度和效率提出了更高的要求。人們希望能夠用計算機讀入病人診斷的CT(Computed Tomography,電子計算機斷層掃描)、MRI(Magnetic Resonance,磁共振成像)圖像,自動精確地診斷出病人的情況。這對圖像分割的準確度提出了更高的要求,而圖像分割很大的瓶頸在于圖像的特征提取。醫學圖像中有其自身的特點,器官的形狀會發生變化,空間還會發生重疊,并且相鄰器官間的灰度值往往比較接近。目前來看,基于傳統的圖像分割算法特征提取能力有限,很難精確地分割出目標區域,因此就無法保證自動診斷的準確度。而深度學習的出現,恰好能夠彌補傳統分割方法的缺陷,更好地適用于自動診斷。
深度學習具有多隱層,用底層的輸出作為高層的輸入。從下到上是一個無監督學習的過程,它能夠自動學習有用的特征,并將低級的特征表示為高級特征;從上到下是有監督的學習過程,通過帶標簽的數據對整個網絡的參數進行優化、調整,使整個網絡具有更好的特征學習能力。這種特征的學習和表示結構,對圖像的形變、平移有很強的魯棒性。這樣剛好解決了醫學圖像特征不容易學習的難題,我們可以再結合傳統的分類算法,將不同區域分割出來,標記出感興趣的區域,最終完成圖像的分割。
在2014年,Long等人提出了FCN(fully convolutional network,全卷積網絡)方法,設計了一種針對任意大小的輸入圖像,訓練端到端的全卷積網絡的框架,實現逐像素分類,奠定了使用深度網絡解決圖像語義分割問題的基礎框架。FCN方法利用了VGG(VisualGeometry Group Network,神經網絡)16網絡,VGG16網絡具有16個卷積層、5個最大池化層、3個全連接層以及1個softmax(歸一化指數函數)層。FCN將3個全連接層轉換為卷積層,并移除softmax層,將原本用于全圖分類的網絡轉換為生成圖像分割的網絡。該方法的分割準確度為62.2%。
Chen等人在FCN框架的末端增加全連接CRF(conditional random field,條件隨機場),提出了DeepLab模型,首先使用雙線性插值法對FCN的輸出結果上采樣得到粗糙分割結果,以該結果圖中每個像素為一個節點構造CRF模型并求解,最后對分割結果逐步求精。該方法的分割準確度為71.6%。
Zheng等人將CRF建模為循環神經網絡(recurrent neural network,簡稱RNN)。該網絡可以直接使用BP(back propagation,反向傳播算法)算法進行端到端的訓練,不需要離線地分別訓練CNN和CRF模型。該方法的分割準確度為72.0%。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于成都信息工程大學,未經成都信息工程大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910248901.5/2.html,轉載請聲明來源鉆瓜專利網。





