[發明專利]一種基于U-NET的深度學習遙感圖像語義分割方法及系統在審
| 申請號: | 202110662122.7 | 申請日: | 2021-06-15 |
| 公開(公告)號: | CN113392845A | 公開(公告)日: | 2021-09-14 |
| 發明(設計)人: | 潘穎;何卓彥;陳洋臣 | 申請(專利權)人: | 廣州觀必達數據技術有限責任公司 |
| 主分類號: | G06K9/34 | 分類號: | G06K9/34;G06N3/04;G06N3/08 |
| 代理公司: | 廣東高端專利代理事務所(特殊普通合伙) 44346 | 代理人: | 李彩鳳 |
| 地址: | 510000 廣東省廣州市黃埔*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 net 深度 學習 遙感 圖像 語義 分割 方法 系統 | ||
本發明公開了一種基于U?NET的深度學習遙感圖像語義分割方法及系統,該方法包括:對初始遙感數據進行校正重建,并分類預處理構造遙感樣本庫,基于分割網絡模型做預測分類得到基礎訓練數據集,并增強處理后為目標訓練數據集;以訓練完成的分割網絡模型處理遙感圖像,得到目標分割結果。本發明采用大氣校正與輻射校正消除輻射量誤差,剔除干擾數據,再對遙感圖像進行超分辨率重建,有效避免了外界因素的干擾,降低了對遙感圖像的分辨率要求;且分割網絡模型可自適應學習不同目標的特征,并在同一遙感影像中實現多目標分割,因而在改變分割目標時,僅需采用相應的數據集重新訓練分割網絡模型即可,無需手動重構特征與算法,大幅減少了工作量。
技術領域
本發明涉及遙感圖像分割技術領域,尤其涉及一種基于U-NET的深度學習遙感圖像語義分割方法及系統。
背景技術
遙感圖像通常是指通過航空或航天平臺所拍攝得到的數字圖像,傳統上對遙感數據的分析工作依賴于大量的人工作業,并輔以部分較為簡單的統計圖像處理方法。隨著技術的進步,目前多采用基于邊緣的多光譜法、基于相位一致的分割方法、基于標記分水嶺的算法等圖像分割算法對遙感圖像進行分割處理,然而,遙感圖像易受大氣、溫度及等壓面等外界因素干擾,當地質條件、生態環境與監測目標存在顯著差異時,上述圖像分割算法難以在不同遙感場景下獲得具有魯棒性的結果;另外,當所需分割的目標發生變換時,以上圖像分割算法需要手動選擇新的分割目標特征,進而產生大量的工作量;
此外,高分辨率遙感衛星存在研制耗時長、運營成本高、作業流程復雜等限制,因而難以獲取到其拍攝的高分辨率遙感圖像,時常需要基于給定的低分辨率的遙感圖像進行超分辨率重建,將其處理恢復為相應的高分辨率圖像,從而在不改變探測系統的前提下提高觀測圖像的分辨率。
可見,現有常見的圖像分割算法難以符合當前在多目標精確分割中對分割精度與分割目標類別的要求,無法直接應用于超分辨率重建領域。
發明內容
本發明實施例公開一種基于U-NET的深度學習遙感圖像語義分割方法及系統,采用大氣校正與輻射校正消除輻射量誤差,剔除干擾數據,再對遙感圖像進行超分辨率重建,有效避免了外界因素的干擾,降低了對遙感圖像的分辨率要求;且分割網絡模型可自適應學習不同目標的特征,并在同一遙感影像中實現多目標分割,因而在改變分割目標時,僅需采用相應的數據集重新訓練分割網絡模型即可,無需手動重構特征與算法,大幅減少了工作量。
本發明實施例第一方面公開一種基于U-NET的深度學習遙感圖像語義分割方法,所述方法包括:
對初始遙感數據進行校正與超分辨率重建,得到重建遙感數據;
對所述重建遙感數據進行分類預處理,構造遙感樣本庫;
建立基于U-NET的分割網絡模型,以Keras人工神經網絡庫為學習框架,對所述遙感樣本庫進行預測分類,得到基礎訓練數據集;
對所述基礎訓練數據集進行數據增強處理,得到目標訓練數據集;
基于所述目標訓練數據集調整訓練參數,訓練所述分割網絡模型;
采用所述分割網絡模型處理遙感圖像,得到目標分割結果。
優選的,所述對初始遙感數據進行校正與超分辨率重建,得到重建遙感數據,包括:
對所述初始遙感數據進行大氣校正與輻射校正,得到校正圖像;
對所述校正圖像進行去噪及上采樣處理,得到特征圖像;
對所述特征圖像中包含的非線性特征進行擬合,提取得到對應于圖像細節的高頻信息;
搭建重建卷積神經網絡模型,并基于先驗知識確定損失函數;
基于所述高頻信息確定優化器與學習參數,并采用反向傳播算法更新網絡參數,通過最小化損失函數訓練所述重建卷積神經網絡模型;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣州觀必達數據技術有限責任公司,未經廣州觀必達數據技術有限責任公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110662122.7/2.html,轉載請聲明來源鉆瓜專利網。





