[發(fā)明專利]一種基于PTGAN的行人重識別方法及裝置在審
| 申請?zhí)枺?/td> | 201911327963.1 | 申請日: | 2019-12-20 |
| 公開(公告)號: | CN111126250A | 公開(公告)日: | 2020-05-08 |
| 發(fā)明(設(shè)計)人: | 張斯堯;王思遠;謝喜林;張誠;黃晉;文戎;田磊 | 申請(專利權(quán))人: | 長沙千視通智能科技有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06K9/34 |
| 代理公司: | 長沙德恒三權(quán)知識產(chǎn)權(quán)代理事務所(普通合伙) 43229 | 代理人: | 徐仰貴 |
| 地址: | 410000 湖南省長沙市高新開發(fā)區(qū)麓谷大道*** | 國省代碼: | 湖南;43 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 ptgan 行人 識別 方法 裝置 | ||
本發(fā)明公開了一種基于PTGAN的行人重識別方法及裝置,所述方法包括:獲取第一攝像頭采集的包含目標對象的第一圖像;將第一圖像輸入訓練好的PTGAN模型,通過實現(xiàn)行人前景不變的前提下實現(xiàn)背景差異區(qū)域的遷移,獲得與第二攝像頭拍攝的圖像風格相同的第二圖像;提取第二圖像的行人特征;根據(jù)余弦距離計算第二識別圖像提取的行人特征向量與第二攝像頭拍攝的行人圖像特征向量的相似度,根據(jù)相似度獲取與目標對象相似度最高的行人圖像。本發(fā)明解決了現(xiàn)有技術(shù)中的行人重識別方法跨攝像頭的檢索難度大,重識別準確率低的問題。
技術(shù)領(lǐng)域
本發(fā)明涉及計算機視覺和智慧城市技術(shù)領(lǐng)域,具體涉及一種基于PTGAN的行人重識別方法、裝置、終端設(shè)備及計算機可讀介質(zhì)。
背景技術(shù)
隨著人工智能、計算機視覺和硬件技術(shù)的不斷發(fā)展,視頻圖像處理技術(shù)已經(jīng)廣泛應用于智能城市系統(tǒng)中。
行人重識別(Person Re-identification)也稱行人再識別,簡稱為Re-ID。是利用計算機視覺技術(shù)判斷圖像或者視頻序列中是否存在特定行人的技術(shù)。廣泛被認為是一個圖像檢索的子問題。給定一個監(jiān)控行人圖像,檢索跨設(shè)備下的該行人圖像。由于不同攝像設(shè)備之間的差異,同時行人兼具剛性和柔性的特性,外觀易受穿著、尺度、遮擋、姿態(tài)和視角等影響,使得行人重識別成為計算機視覺領(lǐng)域中一個既具有研究價值同時又極具挑戰(zhàn)性的熱門課題。
目前來說,雖然行人重識別的檢測能力已經(jīng)顯著提升,但是在實際場合中很多具有挑戰(zhàn)性的問題還沒被完全解決:比如跨攝像頭的檢索通常難度會很大,由于領(lǐng)域差距且不同的攝像頭具有不同的風格,例如背景,照明條件,照相機參數(shù)等,導致在B攝像頭中很難檢索出A攝像頭捕獲的行人圖片,重識別準確率較低。
發(fā)明內(nèi)容
有鑒于此,本發(fā)明的目的在于提供一種基于PTGAN的行人重識別方法、裝置、終端設(shè)備及計算機可讀介質(zhì),能夠提高不同攝像頭下行人重識別的準確率,解決了現(xiàn)有技術(shù)中的行人重識別方法跨攝像頭的檢索難度大,重識別準確率低的問題。
本發(fā)明實施例的第一方面提供了一種基于PTGAN的行人重識別方法,包括:
獲取第一攝像頭采集的包含目標對象的第一圖像;
將所述第一圖像輸入訓練好的PTGAN模型,通過實現(xiàn)行人前景不變的前提下實現(xiàn)背景差異區(qū)域的遷移,獲得與所述第二攝像頭拍攝的圖像風格相同的第二圖像;
提取所述第二圖像的行人特征;
根據(jù)余弦距離計算所述第二識別圖像提取的行人特征向量與所述第二攝像頭拍攝的行人圖像特征向量的相似度,根據(jù)所述相似度獲取與所述目標對象相似度最高的行人圖像。
進一步地,在將所述第一圖像輸入訓練好的PTGAN模型之前,所述方法還包括:
構(gòu)建基于PTGAN的網(wǎng)絡(luò)模型;
將所述第一攝像頭采集的視頻圖像和第二攝像頭采集的視頻圖像作為訓練集訓練基于PTGAN的網(wǎng)絡(luò)模型的目標參數(shù)的參數(shù)值,通過訓練和迭代反饋,將所述第一攝像頭采集的視頻圖像轉(zhuǎn)換為與第二攝像頭采集的視頻圖像風格相同的圖像;
其中,所述基于PTGAN的網(wǎng)絡(luò)模型的損失函數(shù)表達示如下:
式中LStyle代表生成的風格損失或區(qū)域差異,LID代表生成圖像的身份損失。λ1是平衡LStyle和LID的權(quán)重。
進一步地,在構(gòu)建基于PTGAN的網(wǎng)絡(luò)模型之后,所述方法還包括:
使用PSPNet對所述第一視頻圖像序列進行前景分割得到面具層區(qū)域,所述身份損失LID的表達示為:
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于長沙千視通智能科技有限公司,未經(jīng)長沙千視通智能科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201911327963.1/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類





