[發明專利]基于細粒度分類的無人機識別與定位方法有效
| 申請號: | 201810371993.1 | 申請日: | 2018-04-24 |
| 公開(公告)號: | CN108711172B | 公開(公告)日: | 2020-07-03 |
| 發明(設計)人: | 劉昊;魏志強;殷波;曲方超 | 申請(專利權)人: | 中國海洋大學 |
| 主分類號: | G06T7/70 | 分類號: | G06T7/70;G06T7/80;G06K9/62;G06F16/24 |
| 代理公司: | 青島華慧澤專利代理事務所(普通合伙) 37247 | 代理人: | 張慧芳 |
| 地址: | 266100 山*** | 國省代碼: | 山東;37 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 細粒度 分類 無人機 識別 定位 方法 | ||
1.基于細粒度分類的無人機識別與定位方法,其特征在于,包括以下步驟:
(a)建立無人機數據集庫:通過采集無人機機型及參數信息,建立滿足細粒度分類的計算機視覺數據庫;
(b)粗粒度檢測:通過YOLO網絡結構對攝像機拍攝的視頻進行端到端的實時物體識別與檢測,準確判斷物體是否無人機;
(c)細粒度分類:在步驟(a)所述的無人機數據集庫中的數據集的基礎上采取強監督學習的方法完成深度學習,進而完成細粒度分類,細粒度分類完成后,精確地得到檢測到的無人機類別和無人機型號;
(d)匹配檢索型號:得出無人機的具體型號后,在無人機數據集庫中匹配檢索該型號無人機的具體信息,得到該無人機的所有信息,包括材料信息和結構信息,得知無人機的外在視覺特征;
(e)攝像機標定:獲得攝像機的內參數;
(f)空間定位:將無人機的外在視覺特征結合攝像機的內參數得到無人機在立體空間的位置;
步驟(b)中,優化YOLO網絡結構,每個格子預測四個bounding box,輸出向量為7*7*23的向量,實現基于流視頻下的物體檢測,以60-70FPS/S的速率檢測出鏡頭內的物體是否是無人機,從而完成粗粒度檢測;
步驟(c)中,將不同型號無人機之間的突出明顯特征作為細粒度劃分的局部微小特征,在檢測的基礎上,通過訓練得到微小特征分類器,通過區域化檢測幀圖片,通過多個微小特征分類器的檢測結果最終得出無人機的具體的型號;
步驟(c)中,局部微小特征的識別檢測是將無人機進行兩倍像素放大的向下采樣,如公式(1)所示,
Xi代表向下采樣后的圖像,Si代表原圖像,YS(Si)代表原圖像的某個像素點位置,x11,…,xnn代表像素大小,YS(Si)函數將原圖像的某個像素點位置坐標映射到其他位置,與矩陣相乘是將微小部位的特征像素強度放大,弱化其他區域的像素強度,能夠增加分辨率,放大局部微小特征的視覺感知信息;將放大的局部微小特征放入深度網絡中,作為細粒度分類的分類器。
2.根據權利要求1所述的基于細粒度分類的無人機識別與定位方法,其特征在于:所述YOLO網絡結構包含6個卷積層、一個全連接層,輸出7*7*23的向量,輸出預測目標位置及類別信息,將輸出的圖片進行如公式(1)形式的采樣,緊接著送入細粒度分類的深度網絡,所述深度網絡包含4個卷積層、1個全連接層,全連接層輸出7*7*14的向量,用于輸出細粒度檢測后的無人機型號。
3.根據權利要求1-2任一項所述的基于細粒度分類的無人機識別與定位方法,其特征在于:通過攝像機標定,以及通過平移和旋轉矩陣,將圖像中的二維坐標轉換成三維坐標,建立了平面圖片到立體空間中的映射;通過YOLO網絡結構得到無人機的二維坐標位置,按照映射關系,進而得到立體空間的無人機三維坐標。
4.根據權利要求3所述的基于細粒度分類的無人機識別與定位方法,其特征在于:通過幀圖片的連續三維坐標信息,在立體空間中得到無人機的軌跡信息。
5.根據權利要求1所述的基于細粒度分類的無人機識別與定位方法,其特征在于:外在視覺特征包括無人機的機身長、機身寬、機身高的結構信息。
6.根據權利要求1所述的基于細粒度分類的無人機識別與定位方法,其特征在于:攝像機的內參數包括鏡頭參數、傳感器參數、像素大小。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國海洋大學,未經中國海洋大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810371993.1/1.html,轉載請聲明來源鉆瓜專利網。





