[發(fā)明專利]一種基于多損失特征學(xué)習(xí)的醫(yī)學(xué)影像分類方法有效
| 申請?zhí)枺?/td> | 202011419059.6 | 申請日: | 2020-12-07 |
| 公開(公告)號: | CN112381178B | 公開(公告)日: | 2023-05-02 |
| 發(fā)明(設(shè)計)人: | 杜少毅;任徽;楊靜;遲玉婷;崔文婷;姚潤昭;郭昱成 | 申請(專利權(quán))人: | 西安交通大學(xué) |
| 主分類號: | G06V10/764 | 分類號: | G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
| 代理公司: | 西安通大專利代理有限責(zé)任公司 61200 | 代理人: | 王艾華 |
| 地址: | 710049 *** | 國省代碼: | 陜西;61 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 損失 特征 學(xué)習(xí) 醫(yī)學(xué)影像 分類 方法 | ||
1.一種基于多損失特征學(xué)習(xí)的醫(yī)學(xué)影像分類方法,其特征在于:通過設(shè)計的分類損失函數(shù),提取醫(yī)學(xué)影像數(shù)據(jù)中的全局特征信息和局部特征信息,隨后利用深層卷積神經(jīng)網(wǎng)絡(luò)模型,將特征學(xué)習(xí)結(jié)果迭代更新到參數(shù)的學(xué)習(xí)過程中;
具體包括如下步驟:
1)按照口腔醫(yī)學(xué)數(shù)據(jù)的統(tǒng)計分布規(guī)律將數(shù)據(jù)集劃分為訓(xùn)練集、驗證集和測試集,數(shù)據(jù)包含脫敏的醫(yī)學(xué)影像的X-Ray圖像數(shù)據(jù)與標(biāo)簽;提取訓(xùn)練集中的醫(yī)學(xué)特征信息:對于醫(yī)學(xué)影像中存在的噪聲點(diǎn)和難學(xué)習(xí)的影像學(xué)特征,使用隨機(jī)裁剪、中心對稱方法進(jìn)行數(shù)據(jù)增強(qiáng),增強(qiáng)深層卷積網(wǎng)絡(luò)模型的特征學(xué)習(xí)能力,使用隨機(jī)亂序的方法增強(qiáng)數(shù)據(jù)選取的隨機(jī)性,保證分類器能夠識別充足的樣本特征;通過使用深層卷積神經(jīng)網(wǎng)絡(luò)的前向傳播方法,在得到醫(yī)學(xué)樣本中的全局特征和局部特征同時,輸出每個樣本學(xué)得的特征權(quán)重;
2)根據(jù)基于多損失的深度學(xué)習(xí)醫(yī)學(xué)影像分類算法和步驟1所得到的特征信息、特征權(quán)重,建立可以充分學(xué)習(xí)全局與局部特征的多損失目標(biāo)函數(shù);多損失目標(biāo)函數(shù)如下:
其中,目標(biāo)函數(shù)分為兩部分,第一部分是對softmax函數(shù)的,第二部分是本文增加的包含加性角度邊距值得損失函數(shù),對于第一部分的函數(shù),權(quán)重W的維度為d×n表示為DCNN最后一個FC層的,bi是偏置項,θj是特征xi和權(quán)重W的夾角,由于機(jī)器學(xué)習(xí)模型的Softmax層,正確類別對于的輸出是算法模型優(yōu)化的目標(biāo)是損失函數(shù)越小越好,因此對于分類函數(shù)的損失函數(shù)初始的模型表示為因為在特征變量xi和目標(biāo)權(quán)重W之間添加了一個加性角度邊距m,算法優(yōu)化的角度信息就更新為θyi+m,N為一次訓(xùn)練所選取的樣本數(shù),其大小影響模型的優(yōu)化程度和速度,同時直接影響到GPU內(nèi)存的使用情況,假定待分類的樣本類別有Y組,則代表第y個類別學(xué)得的特征向量,s和m則是提出的學(xué)習(xí)局部特征的損失部分的參數(shù),它們的取值取決于待分類的類別和分類的難易程度;k1和k2則是平衡參數(shù),負(fù)責(zé)全局和局部特征的學(xué)習(xí),最終可使得分類器進(jìn)行更好的特征學(xué)習(xí),結(jié)合Softmax損失函數(shù)以及弧度角轉(zhuǎn)換公式,將線性表述的損失函數(shù)被轉(zhuǎn)換為使用弧度角轉(zhuǎn)換公式表述,最終模型的損失函數(shù)即為
3)由于神經(jīng)網(wǎng)絡(luò)的訓(xùn)練是基于梯度的優(yōu)化方法,數(shù)學(xué)基礎(chǔ)是連續(xù)可微,因此選取的激活函數(shù)也要保證連續(xù)可微,階躍函數(shù)在0點(diǎn)不連續(xù),且在除零點(diǎn)外導(dǎo)數(shù)都為0,因此在神經(jīng)網(wǎng)絡(luò)的層與層之間,添加非線性的激活函數(shù),用以保證任意兩層神經(jīng)網(wǎng)絡(luò)可以逼近任意復(fù)雜的函數(shù),防止出現(xiàn)梯度消失問題,考慮神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)過程中對于收斂速度、計算效率以及特征挖掘能力的要求,在激活函數(shù)方面選擇使用線性整流激活函數(shù)(ReLU),函數(shù)如下:
f(x)=max(0,x)
其中,x代表進(jìn)入卷積網(wǎng)絡(luò)神經(jīng)元的來自上一層神經(jīng)網(wǎng)絡(luò)的輸入向量,通過使用線性整流激活函數(shù)(ReLU),計算后結(jié)果會輸出至下一層神經(jīng)元,或者作為整個神經(jīng)網(wǎng)絡(luò)的輸出;
4)根據(jù)對問題的建模以及評估,利用預(yù)測值與真值間的平均絕對值損失來進(jìn)行分類預(yù)測的參數(shù)優(yōu)化;分別使用Se-ResNext101、EfficientNet族網(wǎng)絡(luò)兩種深層網(wǎng)絡(luò)模型進(jìn)行特征學(xué)習(xí),迭代上述的步驟2和步驟3,直到預(yù)測值與真值間的平均絕對值誤差小于給定的閾值或達(dá)到最大迭代次數(shù);根據(jù)迭代完成后得到的分類器,對測試集中的醫(yī)學(xué)數(shù)據(jù)進(jìn)行類別預(yù)測,最終完成基于多損失的深度學(xué)習(xí)醫(yī)學(xué)影像分類。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于西安交通大學(xué),未經(jīng)西安交通大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011419059.6/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 根據(jù)用戶學(xué)習(xí)效果動態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲介質(zhì)
- 游戲?qū)W習(xí)效果評測方法及系統(tǒng)





