[發明專利]一種基于聯邦學習的疾病篩查方法有效
| 申請號: | 202110641862.2 | 申請日: | 2021-06-09 |
| 公開(公告)號: | CN113435607B | 公開(公告)日: | 2023-08-29 |
| 發明(設計)人: | 馬學彬;孫文惠 | 申請(專利權)人: | 內蒙古大學 |
| 主分類號: | G06N20/20 | 分類號: | G06N20/20;G06N3/0464;G06N3/08;G16H50/70 |
| 代理公司: | 深圳紫晴專利代理事務所(普通合伙) 44646 | 代理人: | 付欽偉 |
| 地址: | 010020 內蒙古自治區呼*** | 國省代碼: | 內蒙古;15 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 聯邦 學習 疾病 方法 | ||
本發明公開了一種基于聯邦學習的疾病篩查方法,包括如下步驟:1)組建共享數據集;2)預訓練;3)計算精確度均值;4)數據量計算;5)收斂。本發明屬于聯邦學習、深度學習技術領域,具體是一種基于聯邦學習的疾病篩查方法,結合了聯邦學習以及深度學習的知識,可以更充分利用各地數據,高效準確的進行疾病診斷。
技術領域
本發明屬于聯邦學習、深度學習技術領域,具體是指一種基于聯邦學習的疾病篩查方法。
背景技術
醫學圖像是反映解剖區域內部結構或內部功能的圖像,它是由一組圖像元素——像素(2D)或立體像素(3D)組成的。醫學圖像是由采樣或重建產生的離散性圖像表征,它能將數值映射到不同的空間位置上。像素的數量是用來描述某一成像設備下的醫學成像的,同時也是描述解剖及其功能細節的一種表達方式。像素所表達的具體數值是由成像設備、成像協議、影像重建以及后期加工所決定的。但是有時每位患者檢查數據甚至多達上千幅圖像,假設疾病在集中爆發時,圖像更多。單憑醫師診斷,導致效率慢。聯邦學習結合深度學習對圖像數據進行處理,能夠綜合利用數據,快速對圖像進行分析,準確診斷。
最接近本發明的技術有:
1、基于深度學習的圖像分類算法:圖像分類是根據圖像的語義信息將不同類別圖像區分開來,是計算機視覺中重要的基本問題。深度學習中主要使用卷積神經網絡(Convolution?Neural?Network,CNN)進行圖像分類,將圖像的像素信息作為輸入,通過卷積操作進行特征的提取和高層抽象,模型輸出直接是圖像識別的結果。目前常見的圖像分類CNN網絡有Lenet、Alxnet、Vgg系列、Resnet系列、Inception系列、Densenet系列、Googlenet等。但該方法無法綜合利用各地醫院的數據進行綜合處理,導致準確率較低性能較差。
2、DeCoVNet網絡是弱監督學習算法。在疾病病例分布不均勻且總體數量較少的情況下,具有較重的現實意義。它具有運算速度快,求數據標簽要求少的特點,但是仍然具有準確率不高的缺點以至于容易產生誤診。
發明內容
針對上述情況,為克服現有技術的缺陷,本發明提供一種基于聯邦學習的疾病篩查方法,結合了聯邦學習以及深度學習的知識,可以更充分利用各地數據,高效準確的進行疾病診斷。
本發明采取的技術方案如下:本發明一種基于聯邦學習的疾病篩查方法,包括如下步驟:
1)服務器組建共享數據集,將初始模型(U-Net++、DeCoVNet)下發至參與訓練客戶端;
2)當客戶端運行第一個epoch時,利用無監督學習訓練得出帶有標記的mask以及帶有標記的訓練集對U-Net++模型進行預訓練;所有的訓練集經過預訓練之后的U-Net++模型,得出所有訓練集的mask;所有訓練集的mask、訓練集以及標簽共同進入判斷模型DeCoVNet,對訓練集進行訓練;所有測試集的mask以及測試集進入判斷模型DeCoVNet進行測試;計算本地精度,并上傳服務器;
3)服務器收集參與訓練的客戶端的精度并求出精度均值;
4)運行第二個epoch前,若某個客戶端的精度小于精度均值,則下發m條數據至客戶端。其公式如下:m=i×n,其中i=(accavg-acci)/(accavg-accmin),n為共享數據集大小,且其下發數據集不得大于其客戶端本身數據量;
5)從第二個epoch以后,擁有下發共享數據集的客戶端將共享數據集與自身數據集一同訓練模型,直至整體模型收斂。。
采用上述結構本發明取得的有益效果如下:本方案一種基于聯邦學習的疾病篩查方法,通過深度學習卷積神經網絡對醫學圖像建立模型,有效提升疾病診斷準確率;利用聯邦學習綜合利用各醫院節點數據,提升模型泛化能力;提出一種動態融合策略,提升系統整體準確率。
附圖說明
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于內蒙古大學,未經內蒙古大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110641862.2/2.html,轉載請聲明來源鉆瓜專利網。





