[發明專利]一種基于長短時記憶和生成對抗網絡的雷達回波外推方法有效
| 申請號: | 201910763464.0 | 申請日: | 2019-08-19 |
| 公開(公告)號: | CN110456355B | 公開(公告)日: | 2021-12-24 |
| 發明(設計)人: | 張磊;黃振月;賈培艷;孫俊;高藝華 | 申請(專利權)人: | 河南大學 |
| 主分類號: | G01S13/95 | 分類號: | G01S13/95;G01S7/41 |
| 代理公司: | 鄭州睿途知識產權代理事務所(普通合伙) 41183 | 代理人: | 李伊寧 |
| 地址: | 475001 河南*** | 國省代碼: | 河南;41 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 短時記憶 生成 對抗 網絡 雷達 回波 方法 | ||
1.一種基于長短時記憶和生成對抗網絡的雷達回波外推方法,其特征在于,依次包括以下步驟:
A:獲取雷達數據集,并對雷達數據集中的每條數據進行統一大小和排序處理,再將雷達數據集中的每條數據經過歸一化處理后,轉換為灰度圖像數據并得到灰度圖像數據集合,最后對灰度圖像數據集合進行劃分得到訓練樣本集和測試樣本集;訓練集樣本集中的每組圖像集合中均包括輸入標簽和真實樣本標簽;
B:首先構建長短時記憶和生成對抗網絡模型,并初始化長短時記憶和生成對抗網絡的權重和偏置,長短時記憶和生成對抗網絡模型中的生成模型由長短時記憶神經網絡構成,長短時記憶和生成對抗網絡模型中的判別模型由全連接神經網絡構成;然后將步驟A中得到的訓練樣本集輸入到生成模型中并得到預測圖像;再將預測圖像與真實樣本標簽輸入到判別模型中,計算出預測圖像和真實樣本標簽之間的平均絕對總誤差以及生成模型和判別模型的損失值,再通過反向傳播更新長短時記憶和生成對抗網絡的權重和偏置,重復此過程直到訓練結束,得到收斂的長短時記憶和生成對抗網絡模型;
C:將步驟A中的測試樣本集輸入步驟B中得到的收斂的長短時記憶和生成對抗網絡模型中,得到雷達回波外推圖像;
所述的步驟A包含以下具體步驟:
A1:獲取雷達數據集,并將雷達數據集中的N條數據按照時間遞增順序進行排序;
A2:對雷達數據集中的每條數據進行統一大小和圖像轉換,通過歸一化操作將雷達數據集中的每條數據轉換為歸一化后的灰度圖像數據,并得到灰度圖像數據集合;
A3:對灰度圖像數據集合進行劃分,將灰度圖像數據集合中的每四幅相鄰的灰度圖像作為一組圖像集合得到i組圖像集合,第i組圖像集合中的前三幅即第4i-3幅、第4i-2幅和第4i-1幅灰度圖像作為一組輸入標簽,第i組圖像集合中的第四幅即第4i幅灰度圖像作為真實樣本標簽,i為[1,N/4]之間的自然數,然后將所得到i組圖像集合以7:3的比例劃分為訓練樣本集和測試樣本集;
所述的步驟A2包含以下具體步驟:
A21:對雷達數據集中的每條數據進行大小轉換,將雷達數據集中的每條數據大小均轉化為360×480;
A22:將步驟A21中得到的大小轉化后的數據轉化為灰度圖像,然后再對灰度圖像進行歸一化操作,最終得到灰度圖像數據集合;
所述的步驟B包含以下具體步驟:
B1:首先構建長短時記憶和生成對抗網絡模型,并初始化長短時記憶和生成對抗網絡的權重和偏置;
B2:然后將步驟A3中得到的訓練集樣本集輸入到生成模型中,訓練集樣本集中的每組圖像集合均包含輸入標簽input和真實樣本標簽true,其中輸入標簽input={x1,x2,x3},真實樣本標簽true={x4};x1,x2,x3分別為步驟A3中第i組圖像集合中的前三幅即第4i-3幅、第4i-2幅和第4i-1幅灰度圖像,x4表示第i組圖像中的第四幅即第4i幅灰度圖像;
B3:通過生成模型得到預測圖像,再將預測圖像和真實樣本標簽依次輸入到判別模型中,計算出預測圖像和真實樣本標簽之間的平均絕對總誤差以及生成模型和判別模型的損失值;
B4:根據計算得到的判別模型的損失值,從判別模型輸出層至判別模型輸入層反向傳播,使用學習率作為輸入參數,調節每層網絡的權重和偏置,最終得到更新權重和偏置后的判別模型;
根據計算得到生成模型的損失值,從生成模型輸出層至生成模型輸入層反向傳播,使用學習率作為輸入參數,調節每層網絡的權重和偏置,最終得到更新權重和偏置后的生成模型;
B5:重復步驟B2至B4,直至達到最大迭代次數完成訓練,最終得到收斂的長短時記憶和生成對抗網絡模型;
所述的步驟B1中,生成模型的網絡層次依次為生成模型輸入層、第一長短時記憶神經網絡層、第二長短時記憶神經網絡層、生成模型全連接層和生成模型輸出層,生成模型的訓練迭代次數為150次,學習率為0.001,生成模型輸入層的大小為3×360×480,第一長短時記憶神經網絡層和第二長短時記憶神經網絡層的隱藏層節點數均為128,生成模型全連接層的節點數為360×480,生成模型輸出層的大小為360×480,生成模型的最終輸出圖像大小為360×480,即輸出的預測圖像的大小為360×480;
判別模型的網絡層次依次為判別模型輸入層、判別模型第一全連接層、判別模型第二全連接層、判別模型第三全連接層和判別模型輸出層,判別模型的訓練迭代次數為150次,學習率為0.001,判別模型第一全連接層的節點數為256個,判別模型第二全連接層的節點數為128個,判別模型第三全連接層的節點數為1個,判別模型輸入層的大小360×480,判別模型輸出層的大小為1。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于河南大學,未經河南大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910763464.0/1.html,轉載請聲明來源鉆瓜專利網。





