[發(fā)明專利]集成FDK和深度學習的單視角CT重建方法在審
| 申請?zhí)枺?/td> | 202110339612.3 | 申請日: | 2021-03-30 |
| 公開(公告)號: | CN113052936A | 公開(公告)日: | 2021-06-29 |
| 發(fā)明(設計)人: | 梁輝;余建橋;孫怡 | 申請(專利權)人: | 大連理工大學 |
| 主分類號: | G06T11/00 | 分類號: | G06T11/00;G06N3/04;G06N3/08 |
| 代理公司: | 大連理工大學專利中心 21200 | 代理人: | 隋秀文;溫福雪 |
| 地址: | 116024 遼*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 集成 fdk 深度 學習 視角 ct 重建 方法 | ||
1.一種集成FDK和深度學習的單視角CT重建方法,其特征在于,包括以下步驟:
步驟1、數(shù)據(jù)獲取及預處理
數(shù)據(jù)集包含X射線體正位投影圖像及其1°間隔的360°全視角投影圖像,以及CT體積;其中X射線體正位投影圖像及其對應的全視角投影為第一階段全視角生成網絡訓練數(shù)據(jù),CT體積為第二階段CT微調網絡的監(jiān)督數(shù)據(jù);在訓練中所有使用的數(shù)據(jù)通過先分別求取均值μ和方差σ,然后進行標準化(x-μ)/σ的方式處理,其中x表示待標準化的訓練數(shù)據(jù);將數(shù)據(jù)集劃分為訓練集和測試集分別用于網絡的訓練和測試;
步驟2、搭建全視角生成網絡
所述全視角生成網絡由特征編解碼器、殘差模塊和特征跳躍級聯(lián)結構組成;特征編解碼器由一個連續(xù)下采樣的卷積神經網絡,以及在其最底層獲得編碼特征后連接的一個連續(xù)上采樣卷積神經網絡組成;殘差模塊為加深卷積神經網絡的組件,通過引入一個短連接將輸入特征接到非線性層的輸出上,使得網絡獲得更強擬合高維函數(shù)的能力;特征跳躍級聯(lián)結構是將編解碼器中相同尺度的編碼特征與解碼特征進行級聯(lián),實現(xiàn)了特征融合;
首先全視角生成網絡對輸入的X射線體正位投影圖像使用殘差模塊提取特征,然后將其送入編解碼器進行編碼,在解碼時采用特征跳躍級聯(lián)結構實現(xiàn)特征融合最終生成全視角投影圖像;
步驟3、訓練全視角生成網絡
使用X射線體正位投影圖像作為輸入,對應的全視角投影作為監(jiān)督,使用一致性損失函數(shù)作為優(yōu)化目標,使用梯度下降算法進行深度學習,對所搭建的全視角生成網絡進行訓練;
步驟4、生成預測的粗CT體積數(shù)據(jù)
使用步驟3所訓練的全視角生成網絡,輸入數(shù)據(jù)集中的X射線體正位投影圖像,獲得預測的全視角投影并對其執(zhí)行FDK算法;FDK算法通過加權濾波反投影步驟獲得CT體積數(shù)據(jù);
步驟5、搭建CT微調網絡
所述CT微調網絡由特征編解碼器、殘差模塊與特征跳躍級聯(lián)結構組成,其結構如步驟2所述;
首先CT微調網絡對輸入的粗CT體積使用殘差模塊提取特征,然后將其送入編解碼器進行編碼,在解碼時采用特征跳躍級聯(lián)結構實現(xiàn)特征融合實現(xiàn)對粗CT體積的微調,去除粗CT體積中存在的偽影,輸出更為精確的CT體積;
步驟6、訓練CT微調網絡
使用步驟4所得的反投影粗CT作為輸入,CT真值作為監(jiān)督,使用一致性損失函數(shù)作為優(yōu)化目標,使用梯度下降算法進行深度學習,對所搭建的CT微調網絡進行訓練,完成對粗CT的微調,最終生成清晰無偽影的CT重建圖像。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于大連理工大學,未經大連理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110339612.3/1.html,轉載請聲明來源鉆瓜專利網。





