[發明專利]一種基于局部直線匹配的遙感圖像旋轉艦船目標檢測方法在審
| 申請號: | 202011230682.7 | 申請日: | 2020-11-06 |
| 公開(公告)號: | CN112488113A | 公開(公告)日: | 2021-03-12 |
| 發明(設計)人: | 陳華杰;呂丹妮;白浩然 | 申請(專利權)人: | 杭州電子科技大學 |
| 主分類號: | G06K9/34 | 分類號: | G06K9/34;G06K9/46;G06K9/62;G06N3/04;G06T7/11;G06T7/73 |
| 代理公司: | 杭州君度專利代理事務所(特殊普通合伙) 33240 | 代理人: | 楊舟濤 |
| 地址: | 310018 浙*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 局部 直線 匹配 遙感 圖像 旋轉 艦船 目標 檢測 方法 | ||
本發明公開了一種基于局部直線匹配的遙感圖像旋轉艦船目標檢測方法。本發明對目標進行子區域密集切分時增加了對艦船頭尾和船身的標注,對測試圖片上獲取到的body子目標的中心點使用層次凝聚聚類進行局部子區域劃分,減少干擾,然后對劃分得到的局部區域利用霍夫變換進行直線檢測,最后將直線檢測后的點擬合成線段并將其與headtail子目標數據進行匹配,剔除虛警,完成對具有角度等特殊目標的檢測。可以用于旋轉艦船目標,有效降低檢測結果的虛警率。
技術領域
本發明屬于深度學習領域,具體涉及一種基于局部直線匹配的遙感圖像旋轉艦船目標檢測方法。
背景技術
目前,目標檢測已被廣泛應用于軍事和民用等領域中。深度卷積神經網絡可以利用目標數據集對要檢測的目標進行自主學習,并完善自己的模型。YOLO V5是一種單步目標檢測算法,此算法不需要使用區域候選網絡RPN來提取候選目標信息,而是直接將提取候選區和進行分類這兩個任務融合到一個網絡中,通過網絡來產生目標的位置和類別信息,是一種端到端的目標檢測算法。因此,單步目標檢測算法具有更快的檢測速度。
YOLO V5模型是采用分網格直接回歸目標坐標和分類目標的方法進行目標檢測,主要利用水平矩形邊界框定義目標位置,通過邊界框參數的回歸對目標進行定位。這種方法對于待定位目標對象是人、小動物等小型目標時結果是足夠準確的,但是對于目標對象是艦船、車輛、道路等具有角度或弧度等特殊的旋轉目標是不適合的,針對此類旋轉目標,可以使用基于密集子區域切割的方法進行檢測,但由于艦船的長寬比較大的形態特點,檢測結束后使用常規的子區域合并方法會導致虛警率較高。
發明內容
本發明針對現有技術的不足,提出一種基于局部直線匹配的遙感圖像旋轉艦船目標檢測方法,該方法將艦船目標分為頭尾headtail和船身body兩個類別,通過對訓練集中目標的headtail和body分別進行密集子區域切割來獲取密集的子目標,進而使用YOLO V5算法對訓練集進行訓練。在測試集中首先利用訓練好的YOLO V5模型獲取到所有子目標的中心位置、長寬信息、置信度和類別信息,并利用非極大值抑制算法對圍繞相同網格點的多個檢測信息進行過濾;接著根據body子目標的中心點利用層次凝聚聚類進行局部子區域劃分,去除干擾;然后在局部子區域中利用霍夫變換進行直線檢測并擬合body子目標的候選線段;最后將候選線段與對應的headtail子目標數據進行匹配,剔除虛警,完成待測圖像的目標檢測。
步驟(1)、訓練集數據預處理
利用圖像標注工具對訓練集圖像中待檢測的目標進行標注。首先獲取圖像中目標的中心點坐標(x,y)、目標的寬度w、高度h以及目標的角度信息angle。然后根據設置的切割步長step和目標的高度h,確定目標切割的子目標個數n:
n=h/step+1
計算子目標的長度h_vec和寬度w_vec:
h_vec=[h*cos(angle)/2,h*sin(angle)/2]
w_vec=[w/2cos(3π/2+angle),w/2sin(3π/2+angle)]
根據目標的中心點坐標(x,y)與目標寬度w、高度h計算出目標的左上、右上、右下和左下四個頂點的坐標(x1,y1),(x2,y2),(x3,y3),(x4,y4):
接著根據子目標的個數n得到相鄰子目標的中心點的間隔(dcx,dcy):
dcx=(x3-x1)/n
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州電子科技大學,未經杭州電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011230682.7/2.html,轉載請聲明來源鉆瓜專利網。





