[發明專利]一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法在審
| 申請號: | 202010080931.2 | 申請日: | 2020-02-05 |
| 公開(公告)號: | CN111325116A | 公開(公告)日: | 2020-06-23 |
| 發明(設計)人: | 鐘燕飛;鄭卓;馬愛龍 | 申請(專利權)人: | 武漢大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N20/00 |
| 代理公司: | 武漢科皓知識產權代理事務所(特殊普通合伙) 42222 | 代理人: | 王琪 |
| 地址: | 430072 湖*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 訓練 線上 學習 深度 演化 遙感 影像 目標 檢測 方法 | ||
1.一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,包括以下步驟:
步驟1,構建“線上學習”模塊,首先建立用于目標檢測的深度卷積神經網絡結構,并構建目標定位、目標分類的聯合多任務優化函數;
步驟2,構建“線下訓練”模塊,通過隨機梯度下降算法,利用少量目標標注數據,訓練“線上學習”模塊中的深度卷積神經網絡,使得模型獲得初始的檢測能力;
步驟3,構建“演化”模塊,利用初始的目標檢測模型,對未標記的海量遙感影像進行目標檢測,根據檢測結果篩選獲得含有目標的影像及檢測結果,即“粗樣本”,并利用人工微調檢測結果,獲得“精樣本”;
步驟4,將“精樣本”傳遞至“線下學習”模塊;
步驟5,迭代依次執行步驟2,步驟3,步驟4;
步驟6,迭代結束后,最終輸出目標檢測模型與自動標注的目標檢測樣本庫。
2.如權利要求1所述一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,其特征在于:步驟1的具體實現包括如下子步驟,
步驟1.1,利用深度殘差卷積神經網絡作為骨干網絡用作基礎特征提取;然后在骨干網絡的基礎上,構建特征金字塔網絡,獲得多尺度特征圖;接著構建定位卷積子網絡與分類卷積子網絡,分別用于獲得定位與分類的結果,其中兩個子網絡均分別通過4個Block構建,每個Block包括一個卷積層、一個批歸一化層、一個ReLU層;
步驟1.2,對于定位卷積子網絡的損失函數為其中ti為目標i坐標偏移量預測值,t*i為目標i坐標偏移量真值;對于分類卷積子網絡的損失函數為其中yi為目標i的類別真值的獨熱編碼向量,pi為目標i的各類別置信度向量。
3.如權利要求1所述一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,其特征在于:步驟2的具體實現方式如下,
將大幅影像數據切分成K×K像素的小塊,并將目標標注進行對應的局部坐標轉換,獲得包含N個樣本的數據集D={(x1,y1),(x2,y2),(x3,y3),...,(xN,yN)},其中(xi,yi)表示輸入影像塊及對應目標標注;接著將數據集批量地送入深度卷積神經網絡模型進行訓練,訓練算法采用隨機梯度下降,具體過程如下:
其中,L(θ)為利用每批樣本計算的平均損失函數值,l為用于目標檢測的深度卷積網絡前向計算函數與目標函數的嵌套函數,m為數據集的批量采樣個數,θ為深度卷積神經網絡的模型參數,t為當前迭代次數,為梯度算子,η為網絡學習率,i為每批中的樣本索引。
4.如權利要求1所述一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,其特征在于:步驟3的具體實現方式如下
一個“粗樣本”包括一個表示位置的幾何圖像坐標x1,y1,x2,y2與一個表示類別的類別置信度向量p,其中x1,y1為目標矩形框左上角坐標,x2,y2為目標矩形框右上角坐標;對于一張大幅遙感影像,經過步驟2獲得一個粗樣本集其中xi,分別表示影像塊與對應的目標標注“粗樣本”。首先通過top-k選擇算法選擇出前k個具有高置信的粗樣本,其中k的取值遠小于N,接著利用人工對目標矩形框進行交互式標注,從而調整坐標位置,使矩形框準確包圍目標,將“粗樣本”轉換成“精樣本”。
5.如權利要求2所述一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,其特征在于:步驟1.1中采用ResNet-50作為骨干網絡。
6.如權利要求3所述一種基于線下訓練-線上學習深度可演化的遙感影像目標檢測方法,其特征在于:K的取值為512。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢大學,未經武漢大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010080931.2/1.html,轉載請聲明來源鉆瓜專利網。





