[發明專利]無人裝備對抗中集群陣型和運動趨勢的識別方法及系統在審
| 申請號: | 202011619902.5 | 申請日: | 2020-12-31 |
| 公開(公告)號: | CN112668652A | 公開(公告)日: | 2021-04-16 |
| 發明(設計)人: | 李玉慶;江飛龍;王日新;馮小恩;雷明佳;黃勝全;王瑞星;徐敏強 | 申請(專利權)人: | 哈爾濱工業大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 哈爾濱工業大學專利中心 23200 | 代理人: | 孫宇博 |
| 地址: | 150001 黑龍*** | 國省代碼: | 黑龍江;23 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 無人 裝備 對抗 集群 運動 趨勢 識別 方法 系統 | ||
1.一種無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,包括以下步驟:
步驟一、構建集群陣型和運動趨勢識別方法的監督學習分類模型;
步驟二、構建集群陣型和運動趨勢識別神經網絡模型,建立分類模型中從集群態勢序列信息到集群陣型和運動趨勢識別的映射空間;
步驟三、構建集群態勢識別訓練樣本集,對神經網絡模型進行訓練學習;
步驟四、將集群態勢序列信息輸入所述神經網絡參數的分類模型,識別集群陣型和運動趨勢。
2.根據權利要求1所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,構建集群態勢識別方法分類神經網絡模型,包括LSTM時序特征提取層,Transformer解碼器層,層間注意力層,多維度分類層和輸出層;先使用LSTM循環神經網絡將集群態勢信息編碼成時序特征;然后使用Transformer解碼器模塊和層間注意力模塊提取無人集群的綜合高階態勢信息,最后通過多維度分類網絡和softmax實現對態勢要素的分類。
3.根據權利要求2所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,LSTM時序特征提取層,為單向單層LSTM網絡模塊;集群中各單元信息在LSTM時序特征提取層并行處理,分別提取時序特征,處理各單元信息所使用的LSTM網絡模塊是同一個模塊,參數共享。
4.根據權利要求3所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,Transformer解碼器層由多個Transformer單元堆疊而成,由多頭注意力層、歸一化層和殘差連接組成。
5.根據權利要求4所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,多頭注意力結構對注意力計算的三個輸入矩陣query矩陣、key矩陣和value矩陣使用不同的線性變換,轉換為不同的矩陣,使用多個放點積單元進行計算,然后將多個縮放點積單元的計算結果拼接起來,最后通過一個線性映射輸出;縮放點積單元使用點積的形式進行相似度計算,并除以以適應規模的變化,dk為輸入量的維度長度,多頭注意力層的數學表達式如下。
MultiHead(Q,K,V)=Concat(Head1,…,Headh)W0。
6.根據權利要求5所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,層間注意力層把Transformer解碼器層中每個Transformer單元的輸出進行拼接,后接注意力層提取綜合高階態勢信息,層間注意力層的數學表達式如下:
L'=VTtanh(Wa[QL;KL])
式中,QL=KL為各層Transformer單元提取到的高階態勢信息的集合,V為計算注意力權重時參考的向量,取值觀測方主體信息,L'即為提取到的綜合高階態勢信息。
7.根據權利要求6所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟二中,多分類網絡由一個總全連接網絡和多個子全連接網絡組成;總全連接網絡由多個隱層組成,多個子全連接網絡結構相同,也由多個隱層組成,但參數不共享;最后由softmax層輸出分類概率,每類態勢要素中概率值最大的一項即為網絡輸出的選中項。
8.根據權利要求1所述的無人裝備對抗中集群陣型和運動趨勢的識別方法,其特征在于,步驟三中,構建訓練樣本集,以不同的態勢要素組合為依據,仿真生成大量各種場景下的集群態勢序列信息,以集群態勢序列信息為樣本內容,以態勢要素作為樣本標簽。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于哈爾濱工業大學,未經哈爾濱工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011619902.5/1.html,轉載請聲明來源鉆瓜專利網。





