[發明專利]一種基于GEI和TripletLoss-DenseNet的步態識別方法有效
| 申請號: | 201810518121.3 | 申請日: | 2018-05-27 |
| 公開(公告)號: | CN108921019B | 公開(公告)日: | 2022-03-08 |
| 發明(設計)人: | 楊新武;侯海娥;馮凱 | 申請(專利權)人: | 北京工業大學 |
| 主分類號: | G06V40/20 | 分類號: | G06V40/20;G06N3/08 |
| 代理公司: | 北京思海天達知識產權代理有限公司 11203 | 代理人: | 沈波 |
| 地址: | 100124 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 gei tripletloss densenet 步態 識別 方法 | ||
本發明公開了一種基于GEI和TripletLoss?DenseNet的步態識別方法,該方法將步態能量圖GEI作為網絡的輸入,采用稠密連接方式連接網絡各層,并使用三元組損失函數計算訓練的損失值,通過優化損失值,反向傳播更新模型參數,訓練網絡模型直至該模型收斂。經過網絡的訓練,最終將GEI映射為特定空間S上一維數組表示的特征向量,并用特征向量間的歐氏距離表示行人的相似度,通過相似度來匹配步態識別人的身份。通過在CASIA步態數據庫的DatasetB上進行測試,體現了該模型具有較強的特征映射能力,證明了本發明能在訓練樣本較少的情況下訓練出性能優越的基于步態的識別模型,而且具有跨視角識別、模型參數少等優點。
技術領域
本發明涉及深度學習、計算機視覺和模式識別領域,特別涉及一種基于步態能量圖(Gait Engery Image,GEI)和TripletLoss-DenseNet的步態識別方法。
背景技術
傳統的生物識別技術包括:人臉、虹膜、指紋等,但不同于這些傳統的技術,步態識別技術具有遠距離、非受控、不易模仿、難以隱藏等獨特的優勢,這使得其具有更廣闊的應用背景,包括科研、交通、罪犯檢測等。
在以往的步態識別方法中,首先從視頻序列中提取行人輪廓,并計算其步態能量圖GEI,然后比較不同GEI之間的相似度,最終通過KNN進行分類識別。這些方法學習到的是一種具體身份的分類能力。但是以往的方法有兩個很大的問題:多視角的情況下,精度很差,實用性大大降低;高緯度的特征計算量太大,不利于后期的計算和存儲,且導致分類效果也很差。
近些年,深度學習方法在人臉識別、語音識別、圖像分類與檢測等領域都取得了非常好的結果。之所以能取得如此好的結果,主要是因為深度卷積神經網絡具有高度的非線性映射,能夠學習到一種很強的特征映射能力,而這為設計復雜的高精度分類模型提供了可能性。
發明內容
為了解決現有步態識別技術在處理跨視角步態識別時精度不高以及數據處理步驟復雜的問題。
本發明采用的技術方案為一種基于GEI和TripletLoss-DenseNet的步態識別方法,該方法將步態能量圖GEI作為TripletLoss-DenseNet CNN的輸入,使用網絡將GEI映射為特定空間S上一維數組表示的特征向量,用特征向量間的歐氏距離表示行人的相似度,通過相似度來匹配步態識別人的身份。該方法包括步態能量圖提取,模型訓練,識別三個過程,具體如下:
步驟S1,步態能量圖提取過程:
步驟S1.1,行人檢測;
首先用只含背景的圖片建模,然后利用背景減除法直接提取視頻每一幀中二值化行人輪廓圖像,得到的二值化行人輪廓圖像;
步驟S1.2,步態輪廓圖像預處理:
將步驟S1.1得到的二值化行人輪廓圖像利用形態學處理的方法消除圖像中的噪聲,并填補運動目標中像素位的缺失,以獲得經過噪聲處理后的二值化行人輪廓圖像;
步驟S1.3,將二值化行人輪廓圖像尺寸歸一化,中心化;
從步驟S1.2獲取的無噪聲且輪廓完整平滑的二值化行人輪廓圖像中提取行人輪廓的外接矩形部分圖像,然后將外接矩形部分圖像在不改變圖像中行人輪廓形狀的情況下,歸一化為尺寸相同且所有幀中行人輪廓中心對齊的二值化行人輪廓圖像;
步驟S1.4,步態周期檢測:
因行人行走過程中,人體輪廓所占像素點面積隨步態周期呈周期性變化,根據人體輪廓所占像素點面積變化規律,從步驟S1.3處理得到的二值化行人輪廓圖像序列中提取一個步態周期的二值化行人輪廓圖像序列。行人左腳或右腳邁出到該左腳或右腳下一次邁出為一個步態周期。
步驟S1.5,GEI提取過程:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京工業大學,未經北京工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810518121.3/2.html,轉載請聲明來源鉆瓜專利網。





