[發明專利]一種基于深度學習的建筑垃圾遙感影像識別方法在審
| 申請號: | 202110785190.2 | 申請日: | 2021-07-12 |
| 公開(公告)號: | CN113537033A | 公開(公告)日: | 2021-10-22 |
| 發明(設計)人: | 顏子健;董靜薇 | 申請(專利權)人: | 哈爾濱理工大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 哈爾濱三目知識產權代理事務所(普通合伙) 23214 | 代理人: | 劉冰;馮慶柱 |
| 地址: | 150001 黑龍江省哈*** | 國省代碼: | 黑龍江;23 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 建筑 垃圾 遙感 影像 識別 方法 | ||
一種基于深度學習的建筑垃圾遙感影像識別方法,屬于遙感圖像識別領域。現有的遙感圖像識別方法易受干擾,且這些不能挖掘整體信息,導致識別精度低。一種基于深度學習的建筑垃圾遙感影像識別方法,對獲取的遙感圖像進行預處理,得到遙感圖像數據集;對遙感圖像數據集樣本進行擴充,在神經網絡的第七層加入L2正則化懲罰項,利用擴充后的數據集對加入L2正則化懲罰項的網絡模型進行訓練,獲取目標識別模型;通過計算DeepLab的語義分割方法中真實值和預測值兩個集合的交集和并集之mIOU比,實現語義分割算法的改進;利用改進的識別模型以及算法進行圖像識別。本發明方法識別精度稿,可以監測違規堆放的處理進度,實現動態跟蹤監測凈化城市環境。
技術領域
本發明涉及一種基于深度學習的建筑垃圾遙感影像識別方法。
背景技術
遙感圖像識別的大致經歷了如下幾個過程:傳統基于象元的遙感圖像識別方法,如最大似然法、K-Means均值法,但圖像光譜亮度信息易受干擾,且這些不能挖掘整體信息,易產生“椒鹽噪聲”,現在只作為對比項或預處理方法使用;基于面向對象的遙感識別方法,雖然發揮了多邊形對象屬性特征豐富的優勢,但易過分割或欠分割,且分割的尺度不容易確定;同樣基于象元的圖像語義分割成為了當今遙感圖像識別的熱門研究方向,其自學習能力和容錯能力強的特點源自于深度學習,也奠定了如今成千上萬分類方法的研究與實現。
不過深度學習方法的有效性也很大程度上取決于訓練數據的豐富程度,大量的樣本數據成為了研究必備條件。樣本擴充可使用翻轉等簡單數據增強方法獲得,也可以用生成對抗網絡等機器學習方法進行圖片合成來獲得。另外,深度學習相關研究方法常常要求訓練數據和測試數據特征分布相似,但在實際項目應用中這個要求很難達到,因此深度學習方法因其數據要求,很難在工程項目中被應用。遷移學習作為深度學習研究方法的分支,是目前的一大研究熱點。
發明內容
本發明的目的是為了解決現有的遙感圖像識別方法易受干擾,且這些不能挖掘整體信息,導致識別精度低的問題,而提出一種基于深度學習的建筑垃圾遙感影像識別方法。
一種基于深度學習的建筑垃圾遙感影像識別方法,所述方法通過以下步驟實現:
步驟一、對獲取的遙感圖像進行預處理,得到遙感圖像數據集;
步驟二、對遙感圖像數據集樣本進行擴充,在神經網絡的第七層加入L2正則化懲罰項,利用擴充后的數據集對加入L2正則化懲罰項的網絡模型進行訓練,獲取目標識別模型;
步驟三、通過計算DeepLab的語義分割方法中真實值和預測值兩個集合的交集和并集之mIOU比,實現語義分割算法的改進;
步驟四、利用改進的識別模型以及算法進行圖像識別。
優選地,步驟一所述的對獲取的遙感圖像進行預處理,得到遙感圖像數據集的步驟包括:
采用ENVI平臺對遙感圖像進行正射校正、影像融合的遙感圖像預處理操作,并對其結果數據進行直方圖均值化操作。
優選地,步驟二所述的對遙感圖像數據集樣本進行擴充的步驟采用改進生成對抗網絡的方式融合多個圖像的特征,具體步驟包括:
GAN在原有數據集的基礎上生成新的數據,GAN生成對抗網絡包括兩個模型:生成模型和判別模型,這兩個模型的代表符號分別是G和D;利用這兩個模型的博弈實現生成對抗網絡,
其中,GAN的基本模型:設z為隨機噪聲,x為真實數據,生成式網絡和判別式網絡以分別用G和D表示,其中D可以看作一個二分類器,那么采用交叉熵表示,寫作:
minmaxV=Ex~pdata(x)[logD(x)]+Ez~pz(z)[log(1-D(G(z)))]
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于哈爾濱理工大學,未經哈爾濱理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110785190.2/2.html,轉載請聲明來源鉆瓜專利網。





