[發明專利]步態識別方法、裝置、設備及計算機可讀存儲介質在審
| 申請號: | 202010185319.1 | 申請日: | 2020-03-17 |
| 公開(公告)號: | CN111414840A | 公開(公告)日: | 2020-07-14 |
| 發明(設計)人: | 李璽;吳昊潛;田健;曾浩;吳飛;董霖;葉新江;方毅 | 申請(專利權)人: | 浙江大學;浙江每日互動網絡科技股份有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06N3/04;G06N3/08 |
| 代理公司: | 北京鍾維聯合知識產權代理有限公司 11579 | 代理人: | 郭麗 |
| 地址: | 310013 浙江*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 步態 識別 方法 裝置 設備 計算機 可讀 存儲 介質 | ||
1.一種步態識別方法,其特征在于,所述方法包括:
對待處理的視頻數據中各視頻幀進行人體姿態估計處理,得到所述視頻數據中各待識別對象的人體姿態信息,所述人體姿態信息至少包含表征所述待識別對象的步態的人體關鍵關節點的信息;
將所述待識別對象的人體姿態信息輸入至特征識別網絡,得到所述視頻數據中各待識別對象的特征向量;
對于每個待識別對象,在特征庫中搜索與所述待識別對象的特征向量匹配的目標特征向量,并將所述目標特征向量對應的身份信息確定為所述待識別對象的識別結果。
2.根據權利要求1所述的方法,其特征在于,將所述待識別對象的人體姿態信息輸入至特征識別網絡之前,還包括:對于所述視頻數據中的每一視頻幀,根據所述視頻幀中的待識別對象的指定人體關鍵關節點的坐標信息,對所述待識別對象的人體關鍵關節點的坐標信息進行對齊處理;
將所述待識別對象的人體姿態信息輸入至特征識別網絡,包括:將對齊處理后的所述待識別對象的人體姿態信息輸入至特征識別網絡。
3.根據權利要求2所述的方法,其特征在于,根據所述待識別對象的人體姿態信息,將所述視頻數據中各視頻幀中的人體關鍵關節點的坐標信息進行對齊處理,包括:
對于每一視頻幀,根據所述待識別對象的人體姿態信息,計算所述人體關鍵關節點中的指定人體關鍵關節點的坐標信息之間的中心點坐標;
將各人體關鍵關節點的坐標信息減去所述中心點坐標,得到各人體關鍵關節點的第一矯正坐標;
將各人體關鍵關節點的第一矯正坐標分別除以所述指定人體關鍵關節點之間的長度,得到各人體關鍵關節點的第二矯正坐標并作為對齊處理后的人體姿態信息。
4.根據權利要求1-3任一項所述的方法,其特征在于,將所述待識別對象的人體姿態信息輸入至特征識別網絡,得到所述視頻數據中各待識別對象的特征向量,包括:
將所述待識別對象的人體姿態信息在所述特征識別網絡的坐標通道上進行卷積處理,得到N維人體姿態信息向量;
對于所述N維人體姿態信息向量分別進行如下處理:先將所述N維人體姿態信息向量輸入至所述特征識別網絡的第一卷積層以提取所述待識別對象的每個關鍵關節點的時序信息,再將所述第一卷積層的輸出結果輸入至所述特征識別網絡的第二卷積層以提取所述待識別對象的每個關鍵關節點的空間信息;以及先將所述N維人體姿態信息向量輸入至所述特征識別網絡的第三卷積層以提取所述待識別對象的每個關鍵關節點的空間信息,再將所述第三卷積層的輸出結果輸入至所述特征識別網絡的第四卷積層以提取所述待識別對象的每個關鍵關節點的時序信息;
將所述第二卷積層的輸出結果和所述第四卷積層的輸出結果進行融合處理,得到所述視頻數據中各待識別對象的N通道特征向量。
5.根據權利要求4所述的方法,其特征在于,將所述第二卷積層的輸出結果和所述第四卷積層的輸出結果進行融合處理,得到所述視頻數據中各待識別對象的N通道特征向量,包括:
將所述第二卷積層的輸出結果和所述第四卷積層的輸出結果進行特征拼接處理,得到所述視頻數據中各待識別對象的N通道特征向量。
6.根據權利要求4所述的方法,其特征在于,所述N通道為32通道。
7.根據權利要求1-3任一項所述的方法,其特征在于,所述人體關鍵關節點包括:鼻子、左眼、右眼、左耳、右耳、左肩、右肩、左肘、右肘、左腕、右腕、左髖、右髖、左膝、右膝、左踝和右踝中的至少一個。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于浙江大學;浙江每日互動網絡科技股份有限公司,未經浙江大學;浙江每日互動網絡科技股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010185319.1/1.html,轉載請聲明來源鉆瓜專利網。





