[發明專利]一種用于交通預測的時空注意力機制方法有效
| 申請號: | 201910826273.4 | 申請日: | 2019-09-03 |
| 公開(公告)號: | CN110619430B | 公開(公告)日: | 2022-09-16 |
| 發明(設計)人: | 申彥明;師曉明;莊壯;齊恒;尹寶才 | 申請(專利權)人: | 大連理工大學 |
| 主分類號: | G06Q10/04 | 分類號: | G06Q10/04;G06Q50/26;G06N3/04;G06N3/08 |
| 代理公司: | 大連理工大學專利中心 21200 | 代理人: | 梅洪玉;劉秋彤 |
| 地址: | 116024 遼*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 用于 交通 預測 時空 注意力 機制 方法 | ||
1.一種用于交通預測的時空注意力機制方法,其特征在于,步驟如下:
第一步,將交通數據進行預處理
(1)時間粒度劃分:將所有交通數據的整個時間段被分成等長連續時間間隔;
(2)空間粒度劃分:將一組路段定義為A={1,2,…,N},其中,N表示路段的數量;
(3)對數據進行標準化:表示在時間t的N個路段的交通量;鑒于歷史觀測值x=(x1,x2,...,xT)∈RN*T,交通量預測旨在預測其中,T表示數據的時間總長度,h是對不同任務關注的標準;
第二步,將預處理后的交通數據劃分為訓練集、驗證集和測試集;
第三步,構建基于注意力的周期性時間神經網絡模型APTN
基于注意力的周期性時間神經網絡模型包括全連接層、長周期模型、具有空間注意力的編碼器、具有時間注意力的解碼器、生成預測模型和自回歸模型;各個模型的結構如下:
(1)全連接層:使用完全連接的網絡來獲得長短周期的交通數據特征的提取功能;全連接層的每一個結點都與上一層的所有結點相連,用來把前邊提取到的特征綜合起來;
(2)長周期模型:該模型包括基于長短期記憶網絡LSTM;LSTM擁有三個門來控制細胞狀態,第一個是遺忘門,用于決定丟棄上一層細胞狀態的哪些信息;第二個是輸入門,用于確定哪些新的信息能夠被存放到細胞中;第三個是輸出門,用來控制該層的細胞狀態的過濾情況;
(3)具有空間注意力的編碼器:是一個基于長短期記憶網絡LSTM的編碼器,編碼器由空間注意力機制和長短期記憶網絡組成;使用特征維度的平方根來縮放點積,利用周期向量和注意權重,構造編碼器LSTM的輸入;
(4)具有時間注意力的解碼器:是一個基于LSTM的循環神經網絡和時間注意力機制的解碼器;
(5)生成預測模型:使用兩層完全連接的網絡來獲得神經網絡的最終輸出,并且在時間T+i處的預測輸出全連接層是一類神經網絡層,它的每一個結點都與上一層的所有結點相連,用來把前邊提取到的特征綜合起來;
(6)自回歸模型AR:用同一變數x1至xt-1來預測本期xt的表現;
第四步,使用訓練集數據對基于注意力的周期性時間神經網絡模型的進行預訓練
(1)輸入數據進入全連接層進行特征提取
將長周期數據XL和短周期數據XS輸入全連接層,其中,為最近時段的歷史觀測值,Ts是基于注意力的周期性時間神經網絡模型使用的時間寬度,對于長周期的周期性建模,在每個周期內,需要Ts數量的數據,設要考慮n個周期,將作為長周期數據;
全連接層提取所輸入的交通數據的特征zt=Wvxt+bv,其中Wv∈Rv*N,v是特征表示維度,zt∈Rv是xt的嵌入,bv是特征公式中的偏置值;然后,由交通量的特征量zt得到ZL和ZS;和表示長周期數據XL和短周期數據XS的嵌入矩陣;
(2)長周期嵌入矩陣ZL輸入長周期模型中的長期循環神經網絡
將長期嵌入交通信息輸入長期循環神經網絡,基于LSTM更新過程表示為,其中zt∈Rv是時間t的輸入,是先前的TlLSTM單元的隱藏狀態,fLSTM()表示對LSTM學習的映射函數;從該循環跳躍LSTM,獲得Ts隱藏狀態,表示為將HL稱為長期周期性分量,它將被傳送到編碼器;
在更新過程中,將所有LSTM單元的隱藏表示的維度設置為相同的值m;接著使用ReLU(x)=max(0,x)作為每層的激活函數;最后使用具有時間跳躍連接的循環結構來模擬長期周期性依賴,其中在當前隱藏單元和相鄰時段中相同相位中的隱藏單元之間添加跳越連接;
(3)短周期嵌入矩陣ZS輸入注意力機制部分
1)短周期數據和長期周期性分量輸入到基于LSTM的編碼器中,計算不同道路之間的相關性:
其中,“;”表示連接,Ue∈Rv*2m,Ul∈Rv*m,Ve∈Rv*3v,We、Ue、Ul和Ve代表可學習參數,ht-1∈Rm和st-1∈Rm是前一編碼器LSTM單元的隱藏狀態和單元狀態;和分別是鄰近性數據的特征和周期性數據的特征;表示當前時間數據的特征,αt∈Rv是衡量zt中每個值的重要性的注意力量;
使用特征維度的平方根來縮放點積;利用周期向量和注意權重,構造編碼器LSTM的輸入:首先,在時間t計算加權輸入zt,w,然后將zt,w和hLt連接為編碼的輸入,ht=f1([ht-1,[zt,w;hLt]),其中f1是編碼器LSTM學習的映射函數,ht是編碼器的輸出;令為編碼器隱藏狀態;
2)具有時間注意力的解碼器:作為具有時間注意力的解碼器的輸入,解碼器使用另一個基于LSTM的循環神經網絡來解碼編碼信息;具體地,基于先前解碼器隱藏狀態dt-1和單元狀態s’t-1計算時間t處的注意力機制權重:
其中,Wd∈Rm,Wd、Ud和Vd代表可學習參數,m是LSTM單元的隱藏表示的維度,dt-1∈Rm和s't-1∈Rm是前一個解碼器的隱藏狀態和單元狀態LSTM單位,是衡量每個時間步長重要性的注意力量,=分別表示鄰近性數據的特征和周期性數據的特征,然后使用這些注意權重和短期輸入向量來構造解碼器的輸入:
ct=Heβt
其中,Wc∈Rm*(m+v),Wc是可學習參數,ct是上下文向量的加權和,bc是偏置參數;新計算的用于在時間t更新解碼器隱藏狀態:其中f2是解碼器LSTM學習的映射函數,解碼器的輸出是解碼器的隱藏狀態dt;
3)生成預測模型:將編碼器的隱藏狀態ht和解碼器的隱藏狀態dt輸入到兩層全連接層,獲得其中Wi∈Rv*2m和Vi∈Rv*v代表可學習參數,bwi和bvi代表偏置參數;并且在時間T+i處的預測輸出其中Wim∈RN*v,Vim∈RN*N代表可學習參數,表示偏置參數;
(4)將注意力機制中產生的預測輸出輸入到自回歸模型與多層全連接層,在時間T+i時來自自回歸部分的輸出是:
其中Tar是短期輸入的輸入窗口大小,是的第j個值,代表可學習參數,xT-j代表短周期數據,代表偏置參數;
同時APTN的最終預測是神經網絡和AR分量的輸出的整合:
采用平方誤差作為基于注意力的周期性時間神經網絡模型在訓練中的損失函數:代表APTN的最終預測,xT+i代表短周期數據;其中Ω是訓練樣本的數量,使用Adam優化器來最小化損失;
第五步,使用訓練集數據對第三步建立的基于注意力的周期性時間神經網絡模型進行整體訓練
將輸入數據輸入到基于注意力的周期性時間神經網絡模型中,計算得到模型的結果;計算每次訓練后的預測值和真值的損失函數值,最小化損失函數值,將模型的參數訓練到目標值;根據模型在訓練集、驗證集上的效果,不斷調試模型的超參數,在減小過擬合的條件下提高預測精度;
所述的輸入數據包括:長周期數據XL,短周期數據XS;
第六步,使用測試集數據并利用第五步訓練好的模型進行預測
輸入數據為:長周期數據XL,短周期數據XS;
外部特征模型所輸出的結果就是最終的預測值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于大連理工大學,未經大連理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910826273.4/1.html,轉載請聲明來源鉆瓜專利網。
- 同類專利
- 專利分類
G06Q 專門適用于行政、商業、金融、管理、監督或預測目的的數據處理系統或方法;其他類目不包含的專門適用于行政、商業、金融、管理、監督或預測目的的處理系統或方法
G06Q10-00 行政;管理
G06Q10-02 .預定,例如用于門票、服務或事件的
G06Q10-04 .預測或優化,例如線性規劃、“旅行商問題”或“下料問題”
G06Q10-06 .資源、工作流、人員或項目管理,例如組織、規劃、調度或分配時間、人員或機器資源;企業規劃;組織模型
G06Q10-08 .物流,例如倉儲、裝貨、配送或運輸;存貨或庫存管理,例如訂貨、采購或平衡訂單
G06Q10-10 .辦公自動化,例如電子郵件或群件的計算機輔助管理





