[發明專利]基于卷積神經網絡的識別變體飛機高分辨距離像方法有效
| 申請號: | 201910201317.4 | 申請日: | 2019-03-18 |
| 公開(公告)號: | CN109946667B | 公開(公告)日: | 2022-12-02 |
| 發明(設計)人: | 王鵬輝;劉宏偉;宋曉龍;陳渤;嚴俊坤;糾博;王英華;孟亦然 | 申請(專利權)人: | 西安電子科技大學 |
| 主分類號: | G01S7/41 | 分類號: | G01S7/41 |
| 代理公司: | 陜西電子工業專利中心 61205 | 代理人: | 田文英;王品華 |
| 地址: | 710071*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 卷積 神經網絡 識別 變體 飛機 分辨 距離 方法 | ||
1.一種基于卷積神經網絡的識別變體飛機高分辨距離像方法,其特征在于,構建并訓練卷積神經網絡,利用訓練好的卷積神經網絡對變體飛機的高分辨距離像和非變體飛機的高分辨距離像的共性特征進行學習,該方法步驟包括如下:
(1)構建卷積神經網絡:
(1a)搭建一個由卷積層和池化層交替連接組成四個基本層后再與一層全連接層相連的九層卷積神經網絡;
(1b)設置卷積神經網絡的參數如下:
將四個基本層中每個卷積層的卷積核大小均設置為5、激活函數均設置為ReLU函數、池化層均設置為最大值池化,每個卷積層中卷積核的個數依次設置為32,16,16,8,將全連接層的輸出節點數設置為M,M為樣本集中飛機目標的類別總數;
(2)生成高分辨距離像樣本集:
(2a)將雷達接收到的每個類別飛機目標發生形變前的高分辨距離像數據與其對應的類別標簽,組成該類別飛機的非變體樣本集,將雷達接收到的各個類別飛機目標發生形變后的高分辨距離像數據與其對應的類別標簽,組成該類別飛機的變體樣本集;
(2b)從每個類別飛機的變體樣本集中隨機選取一半的變體樣本集,組成測試樣本集;
(2c)將剩余的變體樣本集和所有非變體樣本集組成訓練樣本集;
(3)對每個樣本的幅度進行歸一化處理:
(3a)用測試樣本集中的每個高分辨距離像數據除以該高分辨距離像數據的模一范數,得到歸一化后的測試樣本集;
(3b)用訓練樣本集中的每個高分辨距離像數據除以該高分辨距離像數據的模一范數,得到歸一化后的訓練樣本集;
(4)訓練卷積神經網絡:
(4a)將歸一化后的訓練樣本集輸入到卷積神經網絡中,無監督的預訓練卷積神經網絡,得到預訓練后的卷積神經網絡;
(4b)利用交叉熵公式計算預訓練后的卷積神經網絡中的全連接層的輸出數據與類別標簽之間的誤差,從卷積神經網絡的頂層向下傳播該誤差,微調整個卷積神經網絡的參數,直到迭代200次為止,得到訓練好的卷積神經網絡;
(5)目標識別:
將歸一化后的測試樣本集中的所有樣本輸入到訓練好的卷積神經網絡中進行識別,得到測試樣本集中形變目標高分辨距離像的分類標簽,完成目標識別。
2.根據權利要求1所述的基于卷積神經網絡的識別變體飛機高分辨距離像方法,其特征在于,步驟(4a)中所述的無監督的預訓練卷積神經網絡的步驟如下:
第一步,將歸一化后的訓練樣本集輸入到第一個基本層中,利用卷積層中卷積核對輸入數據進行卷積操作得到卷積后的數據,再通過池化層的最大值池化操作對卷積后的數據進行下采樣,得到第一個基本層的輸出數據;
第二步,將第一個基本層的輸出數據輸入到第二個基本層中,利用卷積層中卷積核對輸入數據進行卷積操作得到卷積后的數據,再通過池化層的最大值池化操作對卷積后的數據進行下采樣,得到第二個基本層的輸出數據;
第三步,將第二個基本層的輸出數據輸入到第三個基本層中,利用卷積層中卷積核對輸入數據進行卷積操作得到卷積后的數據,再通過池化層的最大值池化操作對卷積后的數據進行下采樣,得到第三個基本層的輸出數據;
第四步,將第三個基本層的輸出數據輸入到第四個基本層中,利用卷積層中卷積核對輸入數據進行卷積操作得到卷積后的數據,再通過池化層的最大值池化操作對卷積后的數據進行下采樣,得到第四個基本層的輸出數據;
第五步,將第四個基本層的輸出數據輸入到全連接層中,通過softmax分類器進行分類,獲得分類標簽。
3.根據權利要求1所述的基于卷積神經網絡的識別變體飛機高分辨距離像方法,其特征在于,步驟(4b)中所述的交叉熵公式如下:
其中,H(p,q)為全連接層的輸出數據與類別標簽之間的交叉熵,p表示類別標簽,q表示全連接層的輸出數據,N表示飛機的類別總數,p(x)表示類別標簽的第x個元素,q(x)表示全連接層的輸出數據中的第x個元素。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安電子科技大學,未經西安電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910201317.4/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:基于陣列雷達的獲取真實目標的方法
- 下一篇:基于多波束形成的目標二次甄別方法





