[發明專利]一種基于注意力機制的雙向兩階段可解釋重著陸預測方法在審
| 申請號: | 202310439351.1 | 申請日: | 2023-04-21 |
| 公開(公告)號: | CN116522771A | 公開(公告)日: | 2023-08-01 |
| 發明(設計)人: | 尚家興;張銳祥;鄭林江;陳逢文;李旭;陳浩東 | 申請(專利權)人: | 重慶大學 |
| 主分類號: | G06F30/27 | 分類號: | G06F30/27;G06N3/0464;G06N3/08;G06N3/0455;G06F18/24 |
| 代理公司: | 北京清亦華知識產權代理事務所(普通合伙) 11201 | 代理人: | 劉海蓮 |
| 地址: | 400044 *** | 國省代碼: | 重慶;50 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 注意力 機制 雙向 階段 可解釋 著陸 預測 方法 | ||
1.一種基于注意力機制的雙向兩階段可解釋重著陸預測方法,其特征在于,包括以下步驟:
獲取原始飛行參數,對所述原始飛行參數進行預處理,得到訓練數據;
構建基于注意力機制的雙向兩階段可解釋重著陸預測模型;其中所述基于注意力機制的雙向兩階段可解釋重著陸預測模型包括時間參數模塊和參數時間模塊;
將所述訓練數據輸入基于注意力機制的雙向兩階段可解釋重著陸預測模型,進行訓練;
獲取待預測飛行數據,將所述待預測飛行數據輸入訓練完成的基于注意力機制的雙向兩階段可解釋重著陸預測模型,得到預測結果以及重著陸時的發生原因。
2.根據權利要求1所述的方法,其特征在于,
所述所述時間參數模塊和所述參數時間模塊均包括:卷積特征編碼器、第一階段注意力機制、第二階段注意力機制;
其中,所述時間參數模塊TPB先學習每個參數的內部時間依賴關系,再學習多個參數之間的相互關系;所述參數時間模塊PTB先學習同一時間點內多個參數之間的關系,再學習多個時間點之間的相互關系。
3.根據權利要求2所述的方法,其特征在于,
所述卷積特征編碼器用于從預處理過的數據中提取有用的信息;其中,通過在輸入數據的左側添加零填充,使卷積后時間維度的長度不變。
4.根據權利要求2所述的方法,其特征在于,還包括:
通過所述第一階段注意力機制評估序列內編碼數據的重要性權重,并通過所述重要性權重進一步獲得上下文向量;
在TPB中,第d個參數編碼后的數據內的每個時間點的重要性分數通過如下公式學習:
其中是權重矩陣,是第d個參數的偏差向量,σ1代表非線性函數,是第d個參數的注意力權重向量;
其中,第d個參數的上下文表示向量是每個時間點的加權向量之和,計算方法如下:
其中,是的轉置矩陣,通過連接從d=1到D的得到,由從d=1到D的組合而成;
在PTB中,第t個時間點編碼后的數據內的每個參數的重要性分數通過如下公式學習:
其中,是權重矩陣,是第t個時間點的偏差向量,σ2代表一個非線性函數,評估每個參數在第t個時間點對模型最終決策的貢獻,第t個時間點的全局向量用以下公式計算:
其中,是的轉置矩陣,由參數域上的表示向量加權其對模型決策的貢獻匯總而成。通過連接從t=1到T的得到,由從t=1到T的組成并為所有時間點的所有參數分配權重。
5.根據權利要求2或4所述的方法,其特征在于,
所述第二階段注意力機制用于獲得更高層次的注意力分數和最終的上下文向量;
在TPB中,每個參數的注意分數的計算方法如下:
A3=σ3(W3E1T+b3),
其中,是模型參數,量化每個參數對預測的信息貢獻,然后,定義如下:
G1=A3E1,
代表通過先在時域、后在參數域分配注意力權重而得到的上下文向量;
在PTB中,每個參數的注意分數的計算方法如下:
A4=σ4(W4E2T+b4),
其中,是模型參數,量化每個時間點對預測的信息貢獻,聚合E2中所有時間點的信息,定義如下:
G2=A4E2,
G1和G2是通過對輸入數據在時域和參數域進行相反順序編碼得到的上下文向量,也構成預測模塊的輸入。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于重慶大學,未經重慶大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202310439351.1/1.html,轉載請聲明來源鉆瓜專利網。





