[發明專利]一種基于PTGAN的行人重識別方法及裝置在審
| 申請號: | 201911327963.1 | 申請日: | 2019-12-20 |
| 公開(公告)號: | CN111126250A | 公開(公告)日: | 2020-05-08 |
| 發明(設計)人: | 張斯堯;王思遠;謝喜林;張誠;黃晉;文戎;田磊 | 申請(專利權)人: | 長沙千視通智能科技有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06K9/34 |
| 代理公司: | 長沙德恒三權知識產權代理事務所(普通合伙) 43229 | 代理人: | 徐仰貴 |
| 地址: | 410000 湖南省長沙市高新開發區麓谷大道*** | 國省代碼: | 湖南;43 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 ptgan 行人 識別 方法 裝置 | ||
1.一種基于PTGAN的行人重識別方法,其特征在于,包括:
獲取第一攝像頭采集的包含目標對象的第一圖像;
將所述第一圖像輸入訓練好的PTGAN模型,通過實現行人前景不變的前提下實現背景差異區域的遷移,獲得與所述第二攝像頭拍攝的圖像風格相同的第二圖像;
提取所述第二圖像的行人特征;
根據余弦距離計算所述第二識別圖像提取的行人特征向量與所述第二攝像頭拍攝的行人圖像特征向量的相似度,根據所述相似度獲取與所述目標對象相似度最高的行人圖像。
2.根據權利要求1所述的基于PTGAN的行人重識別方法,其特征在于,在將所述第一圖像輸入訓練好的PTGAN模型之前,所述方法還包括:
構建基于PTGAN的網絡模型;
將所述第一攝像頭采集的視頻圖像和第二攝像頭采集的視頻圖像作為訓練集訓練基于PTGAN的網絡模型的目標參數的參數值,通過訓練和迭代反饋,將所述第一攝像頭采集的視頻圖像轉換為與第二攝像頭采集的視頻圖像風格相同的圖像;
其中,所述基于PTGAN的網絡模型的損失函數表達示如下:
式中LStyle代表生成的風格損失或區域差異,LID代表生成圖像的身份損失。λ1是平衡LStyle和LID的權重。
3.根據權利要求2所述的基于PTGAN的行人重識別方法,其特征在于,在構建基于PTGAN的網絡模型之后,所述方法還包括:
使用PSPNet對所述第一視頻圖像序列進行前景分割得到面具層區域,所述身份損失LID的表達示為:
其中,G(a)是圖像a中轉移的行人圖像,是是圖像b中轉移的行人圖像,為第一攝像頭采集的視頻圖像的數據分布,為第二攝像頭采集的視頻圖像的數據分布,M(a)和M(b)是兩個分割出來的面具層區域。
4.根據權利要求3所述的基于PTGAN的行人重識別方法,其特征在于,所述提取所述第二圖像的行人特征,包括:
基于訓練好的AlexNet模型提取所述第二圖像的外觀特征;
基于訓練好的VGG-16模型提取所述第二圖像的面部特征。
5.一種基于PTGAN的行人重識別裝置,其特征在于,包括:
獲取模塊,用于獲取第一攝像頭采集的包含目標對象的第一圖像;
PTGAN模塊,用于將所述第一圖像輸入訓練好的PTGAN模型,通過實現行人前景不變的前提下實現背景差異區域的遷移,獲得與所述第二攝像頭拍攝的圖像風格相同的第二圖像;
特征提取模塊,用于提取所述第二圖像的行人特征;
識別模塊,用于根據余弦距離計算所述第二識別圖像提取的行人特征向量與所述第二攝像頭拍攝的行人圖像特征向量的相似度,根據所述相似度獲取與所述目標對象相似度最高的行人圖像。
6.根據權利要求5所述的基于PTGAN的行人重識別裝置,其特征在于,所述裝置還包括:
PTGAN構建模塊,用于構建基于PTGAN的網絡模型;
PTGAN訓練模塊,用于將所述第一攝像頭采集的視頻圖像和第二攝像頭采集的視頻圖像作為訓練集訓練基于PTGAN的網絡模型的目標參數的參數值,通過訓練和迭代反饋,將所述第一攝像頭采集的視頻圖像轉換為與第二攝像頭采集的視頻圖像風格相同的圖像;
其中,所述基于PTGAN的網絡模型的損失函數表達示如下:
式中LStyle代表生成的風格損失或區域差異,LID代表生成圖像的身份損失。λ1是平衡LStyle和LID的權重。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于長沙千視通智能科技有限公司,未經長沙千視通智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201911327963.1/1.html,轉載請聲明來源鉆瓜專利網。





