[發明專利]一種基于人體區域對齊化特征表達學習的行人再識別方法在審
| 申請號: | 201810046080.2 | 申請日: | 2018-01-17 |
| 公開(公告)號: | CN108345837A | 公開(公告)日: | 2018-07-31 |
| 發明(設計)人: | 李璽;趙黎明;莊越挺 | 申請(專利權)人: | 浙江大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62 |
| 代理公司: | 杭州求是專利事務所有限公司 33200 | 代理人: | 傅朝棟;張法高 |
| 地址: | 310058 浙江*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 特征表達 人體區域 對齊 關鍵區域 圖像 卷積神經網絡 圖像數據集 相似度計算 準確度 定義算法 監控場景 模型提取 區域提取 深度特征 視頻數據 搜索應用 提取特征 語義內容 自動學習 圖像線 相似度 魯棒 學習 標注 數據庫 搜索 存儲 融合 身份 | ||
本發明公開了一種基于人體區域對齊化特征表達學習的行人再識別方法。方法具體為:獲取用于訓練行人再識別的圖像數據集,并定義算法目標;在僅借助行人身份號標注的情況下,自動學習符合語義內容的人體關鍵區域;根據這些關鍵區域使用深度卷積神經網絡模型提取相應的深度特征;融合各自區域提取的特征作為最終的人體區域對齊化特征表達;計算行人圖像之間的特征表達之間相似度,從而達到識別不同行人的目的;最后在實際的行人搜索應用中,對數據庫中圖像線下提取特征表達并存儲,在行人搜索時在線進行相似度計算。本發明用于圖像或視頻數據中的行人特征表達學習,針對監控場景下的行人再識別問題能夠達到效果魯棒、準確度高、運行速度快等特點。
技術領域
本發明屬于計算機視覺領域,特別地涉及一種基于人體區域對齊化特征表達學習的行人再識別方法。
背景技術
行人再識別任務是在監控場景下,對不同攝像頭捕獲到的行人進行識別和搜索。相比于人臉識別的應用來講,該場景下不需要行人主動配合,也因此帶來了人臉信息不可用、人體姿態變化大、攝像視角不固定等困難與挑戰。行人再識別的算法旨在將某個行人圖像與其他攝像頭捕獲的行人圖像做匹配,判斷是否是同一個行人。首先需要對給定的兩張行人圖像進行特征表達,然后再進行特征匹配,最終計算兩張圖像的相似度來完成識別或搜索。目前有很多方法是對匹配進行學習,一般是嵌入到深度神經網絡當中去學習匹配關系。但實際應用中還是要求能夠使用快速的匹配,比如搜索過程中希望能與數據庫中的所有行人圖像預存的特征進行快速比對,如果對數據庫中每個特征都要在線的進行特征匹配,需要大量的計算時間。因此學習魯棒的特征表達是一個能夠達到快速且高效的目標,在實際應用中可以將特征表達進行線下的計算和存儲,在線搜索時候進行簡單的匹配的計算,將在線匹配的計算量降到最低,本發明也將聚焦在人體特征表達的學習方面。
人們在判斷兩張行人圖像是否為同一個行人時候,一般都會忽略背景然后比對在行人的不同部位是否相似,這里就存在一個圖像之間將不同部位相互匹配的問題。目前很多算法也是將圖像進行特征表達,然后對兩張圖像的特征根據位置進行比對來計算相似度。這些匹配的策略基本是由人們預設的,假定其適合行人再識別問題。很多基于位置關系的劃分方法不能夠很好的應對人體姿勢變化等挑戰。
發明內容
為了解決現有技術中存在的問題,本發明將特征匹配隱式嵌入到人體特征表達的學習中,得到基于深度神經網絡模型的人體區域對齊特征學習方法。人們在判斷兩張行人圖像是否為同一個行人時候,一般符合人類視覺的注意力機制,通常會忽略背景然后比對在行人的不同部位是否相似,具體到算法中就存在一個圖像之間將不同部位相互匹配的問題。
本發明提出的算法對行人圖像自動挖掘并檢測人體關鍵區域與模式,一定程度上模擬了人類視覺的注意力模型,實現基于視覺啟發的模式匹配機制,從而能夠對人體姿態與攝像視角變化具有一定的魯棒性。我們期望在人體特征表達的學習過程中,根據語義上的人體區域位置將特征進行對齊化,這樣能夠排除背景的干擾同樣能夠解決特征提取區域位置匹配的問題。該方法能夠有效應對行人姿勢變化、攝像頭視角不同、圖像間行人位置無法對齊等問題,在實際應用中也能夠達到效果魯棒、準確度高、運行速度快等特點。
為實現上述目的,本發明的技術方案為:
基于人體區域對齊化特征表達學習的行人再識別方法,用于在給定行人圖像情況下提取特征進行行人識別或再識別的問題,其包括以下步驟:
S1、獲取用于訓練行人再識別的圖像數據集,圖像數據集中的每張圖片包含一個行人,且每個行人具有唯一的身份號標注信息;
S2、基于行人身份號標注信息,通過自動學習獲得符合語義內容的若干個人體關鍵區域;
S3、在行人搜索過程中,對不同攝像頭捕獲到的行人圖像,根據S2中獲得的人體關鍵區域,在線下使用深度卷積神經網絡模型提取每張圖像中各人體關鍵區域的深度特征;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于浙江大學,未經浙江大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810046080.2/2.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:用于自主車輛的標志識別
- 下一篇:利用模擬圖像訓練自動交通燈檢測模型





