[發明專利]一種多視角步態識別方法及系統在審
| 申請號: | 202210397625.0 | 申請日: | 2022-04-15 |
| 公開(公告)號: | CN114694262A | 公開(公告)日: | 2022-07-01 |
| 發明(設計)人: | 方乾萍;應娜;陳華華;楊雪瀅;王來龍;舒勤;梅庭杰 | 申請(專利權)人: | 杭州電子科技大學 |
| 主分類號: | G06V40/20 | 分類號: | G06V40/20;G06V10/44;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 浙江永鼎律師事務所 33233 | 代理人: | 周希良 |
| 地址: | 310018 浙江省杭州市杭*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 視角 步態 識別 方法 系統 | ||
本發明公開了一種基于兩個正交視角方向的特征分開提取的多視角步態識別方法及系統,方法具體步驟:S1.采集得到多視角、多協變量情況的步態數據集,并對數據集進行預處理;S2.將預處理后的輸入送入訓練好的特征提取網絡,提取出90°和0°兩個視角方向成分的特征向量;同時,根據輸入的樣本識別出樣本的協變量,并得到協變量向量;S3.根據得到的協變量向量,對步驟S2的特征向量做加權處理,得到最終的步態特征向量;S4.設置注冊集,注冊集中只含有90°和0°兩個視角方向的樣本;S5.通過對比網絡輸出的步態特征與注冊集的步態特征,分類得到輸入的身份信息。本發明實現了多視角、多攜帶物狀態的步態識別的目的,有效降低了協變量對步態識別的影響。
技術領域
本發明屬于步態識別技術領域,具體涉及一種基于兩個正交視角方向的特征分開提取的深度學習的多視角步態識別方法及系統。
背景技術
步態識別的準確率容易受衣著、拍攝視角、速度、光照強度等因素的影響,研究人員的工作主要著眼于更好地提取出與協變量無關的、更有效的步態特征。
目前,步態識別算法主要分為非深度學習和深度學習的步態識別兩大類。
非深度學習的步態識別算法的相關研究主要通過手工設計特征,技術人員從圖像中提取人體的輪廓,采用不同的人體步態表示方法構建模型來表示輪廓序列,緊接著使用不同的學習方法提取特征信息,最后通過鄰近算法(K-NearestNeighbor,KNN)等分類器識別出主體的身份。
2015年后,深度學習興起,步態識別領域也引入深度學習的概念。目前的步態識別領域大多是利用深度學習的方法搭建模型。按照輸入類型的不同,深度學習的步態識別算法可分為三類:基于合成圖的算法、基于視頻幀序列的算法以及基于骨骼模型的算法。
基于合成圖的算法的輸入一般是步態能量圖(Gait Energy Image,GEI),它是由目標一個步態周期的所有輪廓圖相加取平均得到。下式為一個步態周期為N幀的步態能量圖,其中Xt表示t時刻的圖像:
基于合成圖的算法忽略了時間維度的信息,精度不高,但它將步態信息集成在一張圖中,所構建的模型簡單,模型的參數量更少。
基于視頻幀序列的算法是目前的主流算法,它包含了時序的步態信息以及空間的步態信息,能夠得到較高的識別精度,但仍有提高的空間,且它極易受到諸如穿著情況等的協變量因素的影響。
基于骨骼模型的算法沒有將步態識別看做圖像分類,它通過對人體建模來達到獲取步態信息的目的,因此該類算法對穿著的變化、遮擋等問題具有更強的魯棒性,但目前的識別準確率達不到基于視頻幀序列的算法的識別準確率。
發明內容
針對現有技術存在的上述缺陷,本發明以提高識別準確率為目的,基于矢量分解的數學原理,提出了一種基于兩個正交視角方向的特征分開提取的深度學習的多視角步態識別方法及系統,并根據輸入類型的不同,構建了輸入為步態能量圖的模型以及輸入為視頻幀序列的模型。
本發明提供的一種基于矢量分解的多視角步態識別方法及系統,將某視角下的步態視頻幀圖像分解為90°和0°兩個視角方向的幀圖像進行步態特征提取,然后將得到的步態特征做加權拼接處理。
為實現上述目的,本發明采取如下技術方案:
一種多視角步態識別方法,按照如下步驟進行:
S1.采集得到多視角、多協變量情況的步態視頻數據集,并對數據集進行預處理;
S2.將預處理后的數據輸入特征提取網絡,提取、得到90°和0°兩個視角方向成分的特征向量;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州電子科技大學,未經杭州電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210397625.0/2.html,轉載請聲明來源鉆瓜專利網。





