[發明專利]一種基于標簽不確定性和人體組件模型的行人再識別方法有效
| 申請號: | 201910072934.9 | 申請日: | 2019-01-25 |
| 公開(公告)號: | CN109829414B | 公開(公告)日: | 2020-11-24 |
| 發明(設計)人: | 何穎;丁長興;王侃 | 申請(專利權)人: | 華南理工大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/46;G06K9/62 |
| 代理公司: | 廣州市華學知識產權代理有限公司 44245 | 代理人: | 李斌 |
| 地址: | 510640 廣*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 標簽 不確定性 人體 組件 模型 行人 識別 方法 | ||
本發明公開了一種基于標簽不確定性和人體組件模型的行人再識別方法,包括:(1)構建基于人體組件的深度神經網絡模型;(2)對構建的深度神經網絡模型進行初始化,并根據構建的深度神經網絡結構訓練得到另一個模型;(3)對初始化后的深度神經網絡模型進行訓練并更新網絡中的參數;(4)采用訓練好的深度神經網絡對目標行人圖像及行人圖像庫中的行人圖像分別進行特征提取;(5)對提取得到的特征進行余弦相似度計算并排序,得到識別結果。本發明通過針對局部組件信息不完全準確以及各個局部組件的分類置信度差異較大的問題進行了有效地處理,能有效的提高行人再識別的正確率和/或降低誤識率。
技術領域
本發明涉及計算機視覺領域,尤其涉及一種基于標簽不確定性和人體組件模型的行人再識別方法。
背景技術
隨著深度神經網絡與計算機視覺技術的發展與進步,以及大規模數據存儲技術的飛速發展,行人視頻監控因為既能提高公共安全管理的水平,也可以保障人民的人身財產安全,愈發成為各個國家保障人民生活質量的重要手段。行人視頻監控能夠在大規模圖像與視頻數據中,實現智能地搜尋特定的行人。隨著應用需求以及技術的發展與進步,行人再識別已經成為計算機視覺領域中具有挑戰性與實際研究價值的熱點。
行人再識別技術從傳統的手工特征設計與度量學習方法,發展到現今廣泛使用的深度神經網絡。基于經驗的手工特征設計存在特征挖掘不全面、不完善等特征表達能力弱的缺點,而基于手工特征的距離度量方法泛化能力又較差。近年來流行的卷積神經網絡在計算機視覺領域大放異彩,能夠挖掘出更多更深的特征,具體地能夠發掘圖像局部與局部之間的交叉信息,以及更高階的特征交叉。研究人員也將其應用在行人再識別領域,借鑒人臉識別技術的發展,基于深度學習的行人再識別方法也得到了迅速的發展與進步,譬如基于二元組使用Contrastive Loss的Siamese網絡,對比驗證是否為同一個行人;和基于三元組使用Triplet Loss的網絡,使得相同行人特征更為相似,而使得不同行人特征差異更大。
但是,與人臉識別任務不同的是行人圖像之間存在行人對齊、光照、姿態、遮擋、背景、分辨率等差異因素,使得行人再識別具有更大的挑戰性。現今大多數研究的主流做法都是通過神經網絡抽象得到特征進行表達,進而進行分類。進一步,基于行人人體結構的特點,將通過神經網絡后學習出的行人圖像特征圖進行水平劃分,將單一分類任務劃分為多個平等的分類任務,最后在測試中將多個任務中的水平特征進行拼接,再進行距離度量,該方法可以在一定程度上緩解行人圖像中存在的對齊、遮擋、姿態等變化因素所帶來的識別難度。這種方法的有效性得到了驗證并且較大幅度提高了相應的識別率,但也尚有不足之處,包括局部信息不完全準確以及各個局部的分類置信度差異較大的問題。
發明內容
本發明的目的在于克服現有技術的不足,提供一種基于標簽不確定性和人體組件模型的行人再識別方法。本發明針對局部信息不完全準確和不同局部的分類置信度差異,提出一種柔性標簽和引入包含sigmoid函數的交叉熵損失函數監督網絡的訓練。通過對各個局部組件損失分別賦予不同權重并采用設置人工閾值的方法,來規避一些損失值較小的樣本對模型訓練帶來的干擾。
本發明的目的能夠通過以下技術方案實現:
一種基于標簽不確定性和人體組件模型的行人再識別方法,具體步驟包括:
(1)構建基于人體組件的深度神經網絡模型;
(2)對構建的深度神經網絡模型進行初始化,并根據構建的深度神經網絡結構訓練得到另一個模型;
(3)對初始化后的深度神經網絡模型進行訓練并更新網絡中的參數;
(4)采用訓練好的深度神經網絡對目標行人圖像及行人圖像庫中的行人圖像分別進行特征提取;
(5)對提取得到的特征進行余弦相似度計算并排序,得到識別結果。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華南理工大學,未經華南理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910072934.9/2.html,轉載請聲明來源鉆瓜專利網。





