[發明專利]基于時間和運動增強的視頻動作識別方法在審
| 申請號: | 202211091323.7 | 申請日: | 2022-09-07 |
| 公開(公告)號: | CN115565100A | 公開(公告)日: | 2023-01-03 |
| 發明(設計)人: | 趙彬;丁數學;譚本英;李玉潔;覃陽;李國志 | 申請(專利權)人: | 桂林電子科技大學 |
| 主分類號: | G06V20/40 | 分類號: | G06V20/40;G06V10/62;G06V10/80;G06V10/82;G06N3/04 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 541004 廣西*** | 國省代碼: | 廣西;45 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 時間 運動 增強 視頻 動作 識別 方法 | ||
1.一種基于時間和運動增強的視頻動作識別方法,其特征在于,使用多路徑時間增強模塊聚合由各種激發模塊激發的多路徑時間信息,接著使用長短程運動增強模塊來編碼相鄰和非相鄰幀之間的運動特征,這兩個模塊依次連接在一起可以形成一個通用的模塊,即時間和運動增強模塊,該模塊可以插入任意一個二維卷積神經網絡中進行動作識別,具體包括以下步驟:
1)設計一個多路徑時間增強模塊,聚合由各種激發模塊激發的多路徑時間信息;
2)設計一個長短程運動增強模塊,編碼相鄰和非相鄰視頻幀之間的運動特征;
3)將多路徑時間增強模塊和長短程運動增強模塊依次連接在一起,形成時間和運動增強模塊,并將其嵌入到一個二維卷積神經網絡中;
4)在動作識別的數據集上進行參數學習,將輸入的視頻片段進行稀疏采樣并獲得8幀圖像,然后對它們進行預處理后導入步驟3的網絡進行訓練;
5)在動作識別的數據集上對步驟4得到的算法進行評估,并輸出對應的測試結果。
2.如權利要求1所述的基于時間和運動增強的視頻動作識別方法,其特征在于,該模塊包含四個路徑,其中殘差路徑用于對輸入特征進行有效傳遞,時間聚合路徑使用卷積操作在時間維度上捕獲時間特征,通道時間激勵路徑融合通道響應和時間激勵,以實現在通道和時間維度上進行聯合選擇,空間注意力時間激勵路徑將位置關系嵌入到空間信息中。
3.如權利要求1所述的基于時間和運動增強的視頻動作識別方法,其特征在于,給定輸入X∈RN×C/4×T×H×W,經過二維卷積將通道縮放到原來的此時輸出為運動行為可以表示為:
Fi=Ki*X*[:,:,t+i,:,:]-X*[:,:,t,:,:]
其中Ki是核大小為3×3的二維卷積,Fi是間隔為i的幀之間的運動特征。將Fi沿時間維度拼接獲得
Fi*,將Fi*融合相加可得:
其中接著F*經過空間均值池化和二維卷積處理送入激活函數中。
4.如權利要求1所述的基于時間和運動增強的視頻動作識別方法,其特征在于,將多路徑時間增強模塊和長短程運動增強模塊依次連接在一起組成時間和運動增強模塊,然后將該模塊嵌入到殘差網絡ResNet-34的每個殘差單元中形成時間和運動增強網絡。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于桂林電子科技大學,未經桂林電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211091323.7/1.html,轉載請聲明來源鉆瓜專利網。





