[發明專利]一種輕量級多特征聚合的神經網絡遙感變化檢測方法有效
| 申請號: | 202210476223.X | 申請日: | 2022-04-29 |
| 公開(公告)號: | CN114937204B | 公開(公告)日: | 2023-07-25 |
| 發明(設計)人: | 翁理國;儲圣光;夏旻;胡凱 | 申請(專利權)人: | 南京信息工程大學 |
| 主分類號: | G06V20/10 | 分類號: | G06V20/10;G06V20/70;G06V10/80;G06V10/82;G06V10/764;G06V10/774;G06N3/048;G06N3/082 |
| 代理公司: | 南京經緯專利商標代理有限公司 32200 | 代理人: | 陸志斌 |
| 地址: | 210032 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 輕量級 特征 聚合 神經網絡 遙感 變化 檢測 方法 | ||
1.一種輕量級多特征聚合的神經網絡遙感變化檢測方法,包括搭建并訓練一個分割網絡,輸入雙時像遙感圖像,輸出預測變化區域的預測模型,其特征在于,所述預測模型包括至少三個基礎語義分割子模塊:特征提取模塊、細節特征引導模塊、自注意力以及特征融合模塊,所述預測模型的訓練過程包括如下步驟:
S1、將預先標注語義分割信息的訓練圖像輸入到所述預測模型中,在編碼過程中,利用輕量級特征提取模塊對多尺度特征信息進行提取處理;
S2、通過細節特征引導模塊,引導網絡學習底層的特征信息;
S3、將經過多尺度特征信息進一步輸入至自注意模塊中,提取出變化區域的關鍵信息,通過調節像素點與像素點以及通道與通道之間的權重來減少冗余信息的占比,使網絡更加關注于變化區域的特征信息;
S4、在解碼過程中,將提取的多尺度特征信息輸入特征融合模塊進行輸出產生預測;
S5、利用若干訓練圖像不斷迭代執行上述步驟S1至S4,直至所述模型的訓練結果滿足預設的收斂條件;
所述分割網絡的訓練包括數據集的制作及訓練調參過程,其整體流程由數據集制作,網絡模型搭建和利用數據集進行網絡訓練三部分組成;
所述網絡模型搭建包括建立細節特征引導模塊,引導底層以單流方式學習細節特征信息,并將細節特征預測當作一個類不平衡問題來進行處理,具體如下:
定義一個新的損失函數Ld來處理這類不平衡的問題,若預測細節圖的高位H,寬為W,則Ld表示如下:
Ld(xpd,xdg)=Lbce(xpd,xdg)+Ldice(xpd,xdg)
其中xpd∈RH×W表示預測細節,xdg∈RH×W表示相應的特征圖,Lbce表示二元交叉熵損失;
所述網絡模型搭建還包括建立融合網絡,具體為:定義w和h分別表示特征圖的寬度和高度,首先對不同深度的堆疊特征層進行卷積操作,將不同通道實現信息交互疊加得到特征圖U′,其方程為下所示:
U′=ReLU(B(f3×3(U)))
上式中B為批量標準化運算,ReLU是激活函數修正線性單元,其功能在于使得每一層網絡的輸入都能保持相同的數據分布,并將其規范至均值與方差分別為0和1的正態分布中;然后利用向量來指導特征學習,增加一種注意機制,對特征映射中的數據U′進行重組得到t,激活函數Sigmoid和t的計算公式如下:
t=Sigmoid(f1×1(ReLU(f1×1(Fgp(U')))))
上式中Cn表示類別數,Fgp表示全局平均池化,f1×1表示卷積核為1的卷積操作,Sigmoid是線性激活函數,ReLU是激活函數修正線性單元,將Cn設置為2;最后將t與U′中對應通道數相乘實現對參數賦予權重的功能,并將獲得的特征層與U′相加得到最終輸出V:V=tU′+U′。
2.根據權利要求1所述的一種輕量級多特征聚合的神經網絡遙感變化檢測方法,其特征在于,所述數據集制作過程包括如下步驟:
S01、從谷歌地球軟件上截取同一地區不同時間點的一對高分辨率遙感圖像,圖像主要分布在以下四種背景中,分別是建筑物,植被,河流以及荒地;
S02、對截取的圖像進行準確地人工掩膜標注,標注類別總共分為兩類:變化區域以及未變化區域;
S03、對標注完的高分辨率圖像進行裁剪與篩選,最終獲得N對512×512像素的雙時像遙感圖像對;
S04、對數據集進行隨機切分,其中80%作為訓練樣本,20%作為驗證樣本。
3.根據權利要求1所述的一種輕量級多特征聚合的神經網絡遙感變化檢測方法,其特征在于,所述網絡模型搭建是基于編碼器解碼器結構,并利用密集聯接網絡作為新的主干網絡來對遙感圖像的特征信息進行提取。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京信息工程大學,未經南京信息工程大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210476223.X/1.html,轉載請聲明來源鉆瓜專利網。





