[發明專利]基于深度學習的遙感影像任意方向目標檢測方法在審
| 申請號: | 202210759294.0 | 申請日: | 2022-06-30 |
| 公開(公告)號: | CN115115936A | 公開(公告)日: | 2022-09-27 |
| 發明(設計)人: | 郭亮;祁文平;李亞超;熊濤;荊丹;許晴;呂艷;邢孟道 | 申請(專利權)人: | 西安電子科技大學 |
| 主分類號: | G06V20/10 | 分類號: | G06V20/10;G06V10/764;G06V10/766;G06V10/774;G06V10/80;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 西安嘉思特知識產權代理事務所(普通合伙) 61230 | 代理人: | 萬艷艷 |
| 地址: | 710071*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 學習 遙感 影像 任意 方向 目標 檢測 方法 | ||
本發明公開了一種基于深度學習的遙感影像任意方向目標檢測方法,包括:獲取遙感影像數據集,并將其劃分為訓練集和測試集;對訓練集進行數據增強并進行標記;構建具有SAN結構的深度學習網絡模型;基于構建的網絡模型設計OVAL_IOU損失函數,并利用訓練集對網絡模型進行訓練;利用訓練好的網絡模型對測試集進行測試,得到檢測結果;對檢測結果進行后處理,得到最終的目標位置信息。本發明提供的方法克服了現有技術中虛警率高和漏檢率高的問題,提升了檢測精度和檢測效率。
技術領域
本發明屬于目標檢測技術領域,具體涉及一種基于深度學習的遙感影像任意方向目標檢測方法。
背景技術
隨著成像技術的高速發展,無人機,衛星等設備獲取的信息越來越全面,處理數據的方法越來越完善,影像的分辨率越來越高,遙感影像在各領域的應用越來越廣泛。遙感影像區別于自然拍攝圖像,遙感圖像的背景更加復雜,光照多變,視角多變;遙感影像中的目標尺寸較小、通常長寬比較大,如艦船,貨車等、具有任意方向、以及前景與背景區分度較小。由于遙感影像的這些特點,現階段針對自然場景的基于深度學習的目標檢測方法直接應用于遙感影像中仍然不能取得理想的效果,獲得的目標框含有較多冗余的背景信息。因此,需要設計出適用于遙感影像目標檢測的方法,提升遙感影像中目標檢測的召回率和精確率。
為了解決遙感影像目標檢測精度低的問題,專利文獻一(公開號為CN112102241A)提出了一種單階段遙感圖像目標檢測算法,該方法以YOLO V3作為基準網絡,并且將YOLOV3的特征金子塔結構替換成路徑聚合網絡,并且通過轉置卷積對特征圖進行上采樣提升小目標的檢測率。然而,該方法采用水平矩形框對位置進行標定,檢測結果中包含較多的冗余信息,且當目標緊密排列時該方法漏檢嚴重。
專利文獻二(公開號為CN110674674A)提出一種基于YOLO V3的旋轉目標檢測方法,該方法以OpenCV定義的5參數法表示一個任意方向的矩形,同時重新設計了錨框的生成方式和正負樣本分配方法,使得算法可以獲得更多的正樣本,從而使得網絡更加容易訓練,最后使用smooth_L1損失函數來對位置回歸,實現了遙感影像中任意方向目標的檢測。然而,該方法大大增加了錨框的數量,使得檢測速度有所下降;同時,該方法也是基于矩形框進行位置標定的,其在因此檢測結果中包含較多的冗余信息,影響檢測精度。此外,smooth_L1損失函數在對目標位置回歸時由于角度的周期性和寬高交換性會引起損失值突增,增加了回歸難度,進而影響了檢測效率和精度。
綜上,現有的遙感影像目標檢測方法存在虛警率高、漏檢率高及檢測效率低的問題。
發明內容
為了解決現有技術中存在的上述問題,本發明提供了一種基于深度學習的遙感影像任意方向目標檢測方法。本發明要解決的技術問題通過以下技術方案實現:
一種基于深度學習的遙感影像任意方向目標檢測方法,包括:
獲取遙感影像數據集,并將其劃分為訓練集和測試集;
對所述訓練集進行數據增強并進行標記;
構建具有SAN結構的深度學習網絡模型;
基于構建的網絡模型設計OVAL_IOU損失函數,并利用所述訓練集對網絡模型進行訓練;
利用訓練好的網絡模型對所述測試集進行測試,得到檢測結果;
對所述檢測結果進行后處理,得到最終的目標位置信息。
在本發明的一個實施例中,對所述訓練集進行數據增強,并進行標記包括:
將所述訓練集的數據切割成合適的尺寸并對其進行數據增強;
采用OpenCV表示法對訓練集中的目標框進行標記;
將OpenCV表示法轉化為長邊表示法,則訓練集中的目標框標記為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安電子科技大學,未經西安電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210759294.0/2.html,轉載請聲明來源鉆瓜專利網。





