[發明專利]一種基于W散度對抗網絡的遙感圖像語義分割方法有效
| 申請號: | 202110053047.4 | 申請日: | 2021-01-15 |
| 公開(公告)號: | CN112733756B | 公開(公告)日: | 2023-01-20 |
| 發明(設計)人: | 劉昶;曹峽;趙衛東;鄢濤;劉永紅 | 申請(專利權)人: | 成都大學 |
| 主分類號: | G06V20/13 | 分類號: | G06V20/13;G06V10/26;G06V10/40;G06V10/74;G06V10/774;G06V10/82;G06N3/084;G06N3/094 |
| 代理公司: | 成都智涌知識產權代理事務所(普通合伙) 51313 | 代理人: | 張洪 |
| 地址: | 610000 四川*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 對抗 網絡 遙感 圖像 語義 分割 方法 | ||
1.一種基于W散度對抗網絡的遙感圖像語義分割方法,其特征在于,所述方法包括:
步驟1:建立遙感圖像數據集;
步驟11:將高分辨率遙感圖像和對應二值圖標簽均勻地切割成適應計算資源的尺寸的子圖像,篩選掉目標和背景像素點數量不均衡的樣本;
步驟12:將切割后的所述子圖像按照設定比例分成訓練集和驗證集,保證訓練集和驗證集不重疊同分布;
步驟2:建立遙感圖像語義分割模型,所述語義分割模型包括生成器網絡和判別器網絡;
步驟3:訓練所述遙感圖像語義分割模型,具體包括:
步驟31:將所述訓練集中待分割的RGB遙感圖像和對應二值圖標簽配對,依次將一組RGB遙感圖像和對應二值圖標簽輸入到所述生成器網絡的輸入層,隨機裁剪為生成器卷積網絡額定輸入尺寸,并進行位置對齊;
步驟32:生成器卷積棧對輸入的待分割RGB遙感圖像進行特征提取,完成特征提取后輸出第一預測分割圖;
步驟33:對比所述第一預測分割圖和二值圖標簽,統計預測分布的L1損失,數學表達式如下:
其中,表示L1距離損失,y表示二值圖標簽,G(x)表示預測分割圖,表示一次迭代的平均損失;
步驟34:將生成器生成的所述第一預測分割圖和對應的所述待分割RGB遙感圖像堆疊,同時將二值圖標簽和所述待分割RGB遙感圖像堆疊,將兩組堆疊數據依次輸入判別器網絡中,完成判別并輸出所述第一預測分割圖和所述二值圖標簽的Wasserstein散度,Wasserstein散度的數學表達式如下:
其中,表示Wasserstein散度損失,x表示待分割RGB遙感圖像,y表示二值圖標簽,G(·)表示生成器網絡輸出,D(·)表示判別器網絡輸出,k、p分別為正則項的系數和指數;
步驟35:將Wasserstein散度作為判別器損失函數,通過梯度下降反向傳播,更新判別器權重向量一次;
步驟36:將Wasserstein散度多項式中的生成器損失項取反再和L1損失加權求和作為生成器損失函數,通過梯度下降反向傳播,更新生成器權重向量一次,最優生成器G*的數學描述為:
其中,λ表示權重參數;
步驟37:重復步驟31至步驟36,直到所述訓練集所有樣本都參與一次訓練;
步驟38:重復步驟31至步驟37,直到迭代次數達到上限;
步驟39:模型預訓練完成,保存預訓練模型;
步驟4:測試所述遙感圖像語義分割模型。
2.如權利要求1所述的遙感圖像語義分割方法,其特征在于,所述步驟2具體包括:
步驟21:建立基于U-net架構的生成器網絡,包含一個輸入層和一個卷積棧,所述生成器網絡用于生成第一預測分割圖;
步驟22:建立基于FCN架構的判別器網絡,包含一個卷積棧,所述判別器網絡用于計算生成器所生成的預測分割圖的wasserstein散度損失;
步驟23:對生成器網絡和判別器網絡權重向量進行初始化。
3.如權利要求1所述的遙感圖像語義分割方法,其特征在于,測試所述遙感圖像語義分割模型的方法包括:
步驟41:將所述驗證集中的待分割RGB遙感圖像輸入預訓練模型生成器網絡中,得到第二預分割圖像;
步驟42:將所述待分割RGB遙感圖像對應的二值圖標簽輸入到生成器網絡,通過對比所述第二預分割圖像和二值圖標簽的差異性計算驗證集的分割精度,差異量化選用DICE相似性系數和IoU交并比參數來定量估計;
步驟43:若驗證集的分割精度未達到設定值,執行步驟2至步驟4來調整參數提高分割精度。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于成都大學,未經成都大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110053047.4/1.html,轉載請聲明來源鉆瓜專利網。





