[發明專利]基于深度卷積神經網絡的雷達一維距離像目標識別方法有效
| 申請號: | 201810806078.0 | 申請日: | 2018-07-20 |
| 公開(公告)號: | CN109086700B | 公開(公告)日: | 2021-08-13 |
| 發明(設計)人: | 潘勉;于彥貞;楊坤興;李訓根;呂帥;周濤;曹靜;劉愛林 | 申請(專利權)人: | 杭州電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G01S7/41 |
| 代理公司: | 浙江永鼎律師事務所 33233 | 代理人: | 雷仕榮 |
| 地址: | 310018 浙江*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 卷積 神經網絡 雷達 距離 目標 識別 方法 | ||
1.基于深度卷積神經網絡的雷達一維距離像目標識別方法,其特征在于,包括以下步驟:
S1:采集數據集,將N個雷達采集到的HRRP數據集依據目標的種類進行合并,其中目標的種類為5,每種種類的數據分別在不同的數據段里選擇訓練樣本和測試樣本,在訓練集和測試集樣本的選取過程中,保證所選取的訓練集的數據與雷達所成姿態涵蓋測試數據集與雷達所成的姿態,各類目標訓練集和測試集的樣本數的比例為8:2,將挑選的數據集記作其中Xi表示第i個樣本,yk表示第k種目標,i0表示樣本總數;
S2:對S1采集到的數據進行預處理,對挑選的數據集T中的每一個樣本使用補償對齊法進行對齊,然后再對對齊的樣本加入小強度的高斯隨機噪聲,隨機左右平移很小的單位擴充數據集,再對擴充后的數據集進行能量歸一化得到歸一化后的數據;
S3:從預處理后的數據中提取特征,對S2預處理后的數據進行冪次變換,并將冪次變換的結果進行橫向相連,再對冪次變換后的數據進行譜圖特征提取;
S4:設立一個閾值將采集到的雷達HRRP信號分成低信噪比和高信噪比樣本兩個部分;
S5:構建基于穩健玻爾茲曼機的特征增強算法,算法利用信噪比較高的訓練樣本特征包含的先驗信息,對信噪比較低的樣本特征進行特征增強;
S6:構建基于卷積神經網絡和基于LSTM的雙向循環神經網絡的HRRP目標識別模型,實現雷達HRRP的自動識別功能;
S7:對經過步驟S6構建好的模型,使用梯度下降算法對構建的卷積池化和循環神經網絡的模型參數進行微調,使用訓練數據迭代num_steps步后,得到有效的目標識別模型,其中損失函數使用的是交叉熵損失,其表達式為:其中pi表示對應樣本的標簽,ai表示模型計算得到的概率值,num_steps=30000;
所述S2具體為:
S2.1:對步驟S1中的數據集T中的樣本進行對齊,T中的每個數據樣本皆為256維度,原始數據樣本表示為:X=[x1,x2…,x256];
S2.1.1:新的數據樣本將三個原始樣本按照橫向粘貼在一起構成一個256*3的數據集,表示為X′=abs([X,X,X])=[x′1,x′2,…,x′768],其中,abs()為對其中每個元素的值取絕對值;
S2.1.2:構建一個256維的序列Y=[y1,y2…,y256],其中,yi=exp(k||i-128.5||2)其中k表示控制因子,||·||2表示求二范數操作;
S2.1.3:求得到d之后,從X'中取出第d+1到第d+256個連續的點作為對齊后的數據X″=[x′d+1,x′d+2…,x′d+256];
S2.1.4:將S1中數據集T中的每一個樣本重復步驟S2.1.1,S2.1.2,S2.1.3得到的對齊后的樣本數據集記為T1;
S2.2:將對齊的數據T1進行能量歸一化,用對齊的數據除以他們自身的范數現對數據的能量歸一化,根據歸一化公式對每一個樣本實施公式將歸一化后的數據集記作T2;
所述S3具體為:
S3.1:對經過S2.2處理的數據T2中的每一個樣本進行冪次變換,得到xpower=(X∴)r,其中r為冪次變換的次數,(.)r表示將括號內的向量中每一個元素分別取r次方,其中冪次變換r分別取0.3,0.4,0.5,0.6,0.7,并將冪次變換后的結果橫向相連,橫向拼成一個新的特征
X∵=[(X∴)0.3,(X∴)0.4,(X∴)0.5,(X∴)0.6,(X∴)0.7];
S3.2:譜圖特征提取,由如下公式得到:Xspectrogram(m,n)=|STFT(X∵)|2,
其中,STFT(·)表示對括號內的信號做離散短時傅里葉變換,|·|2表示對內部的矩陣的每一個元素取模再平方;變換后將二維譜圖特征中的每一個元素取絕對值得到最終的特征,得到:
X'spectrogram=abs(Xsepctrogram);
所述S4具體為,設立閾值將HRRP信號分為高信噪比樣本和低信噪比樣本兩個部分,HRRP的信噪比定義為:
其中,Pl表示原始測試HRRP在第l個距離單元內的功率,256表示距離單元個數,表示接收機在未接收到信號時的熱噪聲方差,設定閾值為20,即當SNR≥20dB時,判斷為高信噪比樣本,當SNR<20dB時,判定為低信噪比樣本;
所述S5具體為:
S5.1:構建模型,基于穩健玻爾茲曼機特征增強算法的能量函數定義如下:
其中,第一行描述了噪聲以及控制高信噪比HRRP特征模型和噪聲模型之間的交互,f表示高信噪比HRRP數據的特征,h表示高信噪比HRRP數據特征的隱含層節點,s表示控制噪聲的指示變量,si表示第i個控制噪聲的節點,
gk表示噪聲的隱含節點,g表示噪聲的隱含層節點,表示表示低信噪比HRRP 數據的特征,μ表示耦合因子,控制高信噪比HRRP數據特征和低信噪比HRRP數據特征的耦合程度;第二行描述了高信噪比HRRP的高斯受限玻爾茲曼機模型,第三行表示噪聲的受限玻爾茲曼機模型,其中特表示噪聲在第i個節點的均值和方差,bi、σi表示高斯受限玻爾茲曼機模型第i個可視節點的均值和方差,cj表示高斯受限玻爾茲曼機模型第j個隱藏節點的偏移量,Wij表示高斯受限玻爾茲曼機模型第i個可視節點到第j個隱藏節點權重,di表示受限玻爾茲曼機模型第i個可視節點的偏移量,ek表示受限玻爾茲曼機模型第k個隱藏節點的偏移量,Uik表示受限玻爾茲曼機模型第i個可視節點到第k個隱藏節點權重,λ1,λ2表示權重因子;
S5.2:利用步驟S4提取的高信噪比HRRP樣本提取的特征訓練學習一個高斯受限玻爾茲曼機模型,將訓練所得的模型參數作為基于先驗知識的穩健玻爾茲曼機特征增強算法中高斯受限玻爾茲曼機模型部分的初始化參數,再在高信噪比HRRP中加入噪聲,提取特征,訓練得到基于先驗知識的穩健玻爾茲曼機特征增強算法的所有參數;
S5.3:判斷經過S3處理后的樣本是屬于低信噪比樣本還是屬于高信噪比樣本,若是屬于高信噪比樣本,則不作處理,若是屬于低信噪比樣本,則將從低信噪比樣本中提取的特征經過S5.1和S5.2構造的玻爾茲曼機模型作特征增強處理得到增強的特征;
所述S6具體為:
S6.1:將S3和S4所提取的特征圖數據集記為x,x作為卷積神經網絡的輸入,在送進輸入網絡之前,x為64×960固定大小的譜圖送入神經網絡,雷達譜圖是單通道的特征,在訓練和測試的過程中每次送入網絡一個batch=128張圖片,神經網絡的輸入為一個64*960*128的三維矩陣,
S6.2.1:使用4個卷積層和4個池化層交替連接,組成卷積神經網絡,每個卷積層使用pi個大小為mi×ni的卷積核進行卷積操作,對于每個卷積層的輸入xi,卷積之后得到輸出其中pi表示第i個卷積層,卷積核的個數,mi,ni表示第i個卷積層的卷積核大小,yi表示輸入xi與卷積核執行卷積操作,并經過激活函數f(·)后的輸出值,Wij,bij分別表示第i個卷積層的第j個卷積核的權重和偏置,其中,p1=64,m1×n1=5*5;p2=32,m2×n2=5*5;p3=16,m3×n3=3*3;p4=1,m4×n4=3*3;初始化為服從標準正態分布的權重分布;全部設置為常數1;激活函數f(x)采用relu激活函數,
S6.2.2:池化層池化窗口大小為3*3,偏移值為2,池化方法采用最大池化方法,提取卷積核視野內最最大化的特征,對于卷積層卷積得到的輸出yi進行池化可以得到ypooli=max(yi),i=1,2,3,4其中yi代表第i個卷基層的輸出,即第i個池化層的輸入,max(yi)代表從當池化窗口從yi上滑動的時候,在滑動的視野內提取最大值組成池化特征圖;
S6.2.3:在卷積池化的過程中,特征圖均使用全0填充,卷積過程中卷積核的移動步長設置為1,池化過程中池化窗口的移動步長設置為2,根據公式ylength=(xlength/步長),ywidth=(xwidth/步長),經過S5.1處理后的特征圖在經過四層卷積池化層之后變為4*60*p4=4*60*1,其中,1代表池化特征圖的深度,xlength代表輸入圖像的長度,xwidth代表輸入圖像的寬度,ylength代表輸出圖像的長度,ywidth代表輸出圖像的寬度;
S6.2.4經過S6.2.1,6.2.2和6.2.3處理后第四個池化層的輸出為4*60*1,由于batch=128,故ypool4=(128,4,60,1),其中,第一維代表batch,即每次送入神經網絡的譜圖數量,4,60,1分別代表第四個池化層輸出的譜圖的長度、寬度及深度;
S6.3:構建基于LSTM的循環神經網絡,具體為:
S6.3.1:雙向循環神經網絡的主體結構為兩個單向循環神經網絡的結合,在每一個時刻t,輸入同時提供給這兩個方向相反的循環神經網絡,輸出為這兩個單向循環神經網絡共同決定,設置n_inputs=60,n_steps=4,n_hidden_units=128,n_class=5,其中n_inputs=60代表輸入層神經元數目,即譜圖特征中每行60列的數值,n_steps=4代表4行的數據,以一行一行像素值處理,便是4行;n_hidden_units=12表示隱層的神經元數目,n_class=5表示輸出層的神經元數目,即代表所挑選的類別數目為5類;
S6.3.2:對雙向循環神經網絡的權重和偏置進行初始化,輸入層和隱層之間的權重記為Weights1,其維度為shape=(n_inputs,n_hidden_units),隱層和輸出層之間的權重記為Weights2,其維度為shape=(n_hidden_units,n_class),權重初始化采用與卷積神經網絡相同的高斯分布,輸入層和隱層之間的偏置記為biases1,其維度為shape=(n_hidden_units),隱層和輸出層之間的偏置記為biases2,其維度為shape=(n_class),均初始化為常量1,雙向的初始狀態皆記為state=0,雙向循環神經網絡的所有時刻共享權重,偏置和初始狀態state;
S6.3.3:將通過步驟S5得到的4*60的特征譜圖按列拆分,拆分出來的每一列作為一個序列,每一個序列未由4個像素組成的向量,雙向循環神經網絡不同時刻的輸入分別是拆分出來的batch個序列,從第四個池化層得到的特征圖為三維,通過tensorflow中的reshape函數將輸入數據變成(batch*n_steps,n_inputs)二維的適合循環神經網絡輸入層的形式,將reshape后的數據記作X1_in,則第一層的輸出為X1_out=tanh(X1_in*Weights1+biases1),同時作為隱層的輸入,其中tanh()是激活函數,
lstm_fw_cell=tf.contrib.rnn.BasicLSTMCell(n_hidden_units,forget_bias=1.0)
lstm_bw_cell=tf.contrib.rnn.BasicLSRMCell(n_hidden_units,forget_bias=1.0)
outputs=tf.contrib.rnn.static_bidirectional_rnn(lstm_fw_cell,lstm_bw_cell,X1_out)
其中,lstm_fw_cell代表前向的循環神經網絡,lstm_bw_cell代表反向循環神經網絡,forget_bias=1.0代表LSTM不會忘記任何信息,outputs代表X1_out經過的輸出;取輸出序列中的最后一個X2_out=outputs[-1],作為輸出層的輸入,a=tanh(X2_out*Weights2+biases2),為雙向循環神經網絡每一個時刻batch個輸出的組合,輸出的batch中的每一個序列的維度是n_class,a={a1,a2,a3,a4,a5};
S6.4:構建softmax層,將a作為softmax分類器的輸入特征,進行分類,假設用于訓練的雷達HRRP樣本來自5個不同的目標,訓練得到softmax回歸模型的參數集θ之后,雷達測試HRRP樣本的特征a對應于第i個目標的概率值p(a|i)定義為:
其中,i表示目標的標號,i=1,2,…,5,5為總目標數,θi表示對應于目標i的參數,表示歸一化向量,使雷達測試HRRP樣本a對應于所有目標模型的概率和為1;
S6.5:通過最大后驗概率來對樣本進行判決,將測試樣本分類到最大目標條件似然值所對應的目標c中:
代表模型判斷a屬于5個類別分別會有一個對應的概率,從判斷的5個概率中挑選最大概率所屬的類別賦給c,即為目標模型。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州電子科技大學,未經杭州電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810806078.0/1.html,轉載請聲明來源鉆瓜專利網。





