[發(fā)明專利]基于特征強(qiáng)化引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的行人再識(shí)別方法及裝置有效
| 申請(qǐng)?zhí)枺?/td> | 201811469353.0 | 申請(qǐng)日: | 2018-11-28 |
| 公開(公告)號(hào): | CN109614907B | 公開(公告)日: | 2022-04-19 |
| 發(fā)明(設(shè)計(jì))人: | 李騰;謝以翔;王妍 | 申請(qǐng)(專利權(quán))人: | 安徽大學(xué) |
| 主分類號(hào): | G06V40/10 | 分類號(hào): | G06V40/10;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 合肥市浩智運(yùn)專利代理事務(wù)所(普通合伙) 34124 | 代理人: | 丁瑞瑞 |
| 地址: | 230000 *** | 國(guó)省代碼: | 安徽;34 |
| 權(quán)利要求書: | 查看更多 | 說(shuō)明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 特征 強(qiáng)化 引導(dǎo) 卷積 神經(jīng)網(wǎng)絡(luò) 行人 識(shí)別 方法 裝置 | ||
1.基于特征強(qiáng)化引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的行人再識(shí)別方法,其特征在于,所述方法包括:
1)收集行人圖像數(shù)據(jù)并做好分類標(biāo)簽,并將分類后的行人圖像數(shù)據(jù)分為訓(xùn)練集和測(cè)試集;
2)構(gòu)建特征強(qiáng)化引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò),其中,所述卷積神經(jīng)網(wǎng)絡(luò)包含雙輸入基本網(wǎng)絡(luò)、主干卷積神經(jīng)網(wǎng)絡(luò)、特征強(qiáng)化引導(dǎo)模塊;所述特征強(qiáng)化引導(dǎo)模塊包括設(shè)定數(shù)量個(gè)子網(wǎng)絡(luò)層,每一個(gè)子網(wǎng)絡(luò)層均包含卷積層、ReLU激活層、BatchNorm標(biāo)準(zhǔn)化層組成的卷積單元、最大值池化層以及sigmoid層;
利用行人分割模型,對(duì)打上分類標(biāo)簽的行人圖像數(shù)據(jù)進(jìn)行人體區(qū)域扣取,獲取對(duì)應(yīng)的不含背景的人體掩碼圖片,并把每一張圖像的掩碼圖片和所述圖像作為圖像對(duì);
將圖像對(duì)的集合中的若干圖像對(duì)的集合作為訓(xùn)練集;將其余的圖像對(duì)的集合作為測(cè)試集;
原始圖片和對(duì)應(yīng)的掩碼圖片秉性輸入雙輸入基本網(wǎng)絡(luò);特征強(qiáng)化引導(dǎo)模塊使用掩碼圖片的淺層特征自動(dòng)學(xué)習(xí)引導(dǎo)主干神經(jīng)網(wǎng)絡(luò)的特征學(xué)習(xí),具體為:特征強(qiáng)化引導(dǎo)模塊的各子網(wǎng)絡(luò)層分別通過(guò)sigmoid層自主學(xué)習(xí)生成人體部位特征增強(qiáng)的權(quán)重圖, 自主選擇人體的強(qiáng)化部位,并且分別與主干網(wǎng)絡(luò)不同層次的特征映射做點(diǎn)乘,以達(dá)到持續(xù)引導(dǎo)整個(gè)網(wǎng)絡(luò)的特征增強(qiáng)學(xué)習(xí)的設(shè)計(jì)目的;
3)將步驟1)中的訓(xùn)練集輸入所述特征強(qiáng)化引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò),訓(xùn)練得到行人再識(shí)別的預(yù)訓(xùn)練模型;
4)用步驟1)中的測(cè)試集測(cè)試步驟3)中訓(xùn)練得到的預(yù)訓(xùn)練模型,根據(jù)測(cè)試結(jié)果調(diào)整訓(xùn)練參數(shù)重新訓(xùn)練,并返回步驟3),直至所述特征強(qiáng)化引導(dǎo)的卷積神經(jīng)網(wǎng)絡(luò)收斂,得到最佳預(yù)訓(xùn)練模型;
5)收集目標(biāo)場(chǎng)景中的部分目標(biāo)行人圖像,并使用所述目標(biāo)場(chǎng)景中的部分目標(biāo)行人圖像訓(xùn)練所述最佳預(yù)訓(xùn)練模型,得到目標(biāo)模型,再使用所述目標(biāo)模型對(duì)行人庫(kù)中的圖像進(jìn)行特征比對(duì),從而識(shí)別出目標(biāo)行人,得到目標(biāo)圖像。
2.根據(jù)權(quán)利要求1所述的基于特征強(qiáng)化引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的行人再識(shí)別方法,其特征在于,所述步驟1)包括:
將不同場(chǎng)景下的行人的視頻監(jiān)控?cái)?shù)據(jù)作為行人圖像數(shù)據(jù)來(lái)源,針對(duì)每一個(gè)行人,用行人檢測(cè)方法摳取出包含同一行人的不同拍攝角度的行人圖片,對(duì)每一個(gè)確定身份的具體行人圖片進(jìn)行分類,并打上標(biāo)簽;
對(duì)已分類的行人圖片進(jìn)行數(shù)據(jù)擴(kuò)充,具體擴(kuò)充手段包括:顏色直方圖均衡化、水平鏡像翻轉(zhuǎn)、高斯模糊和添加隨機(jī)噪聲。
3.根據(jù)權(quán)利要求1所述的基于特征強(qiáng)化引導(dǎo)卷積神經(jīng)網(wǎng)絡(luò)的行人再識(shí)別方法,其特征在于,所述步驟5)包括:
使用所述目標(biāo)模型對(duì)可能含有目標(biāo)行人的圖像目標(biāo)特征向量提取;
計(jì)算所述目標(biāo)特征向量與行人庫(kù)中每一圖片所含有的行人的特征向量的歐式距離,將歐式距離小于預(yù)設(shè)閾值所對(duì)應(yīng)的圖像作為目標(biāo)圖像。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于安徽大學(xué),未經(jīng)安徽大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811469353.0/1.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專利網(wǎng)。
- 引導(dǎo)裝置及引導(dǎo)方法
- 引導(dǎo)系統(tǒng)以及引導(dǎo)方法
- 引導(dǎo)裝置、引導(dǎo)方法以及引導(dǎo)程序
- 車輛引導(dǎo)裝置、車輛引導(dǎo)方法和車輛引導(dǎo)程序
- 移動(dòng)引導(dǎo)系統(tǒng)、移動(dòng)引導(dǎo)裝置、以及移動(dòng)引導(dǎo)方法
- 引導(dǎo)裝置、引導(dǎo)方法以及引導(dǎo)程序
- 路徑引導(dǎo)裝置、路徑引導(dǎo)方法以及路徑引導(dǎo)程序
- 引導(dǎo)方法及引導(dǎo)系統(tǒng)
- 引導(dǎo)裝置、引導(dǎo)方法以及引導(dǎo)程序
- 引導(dǎo)系統(tǒng)、引導(dǎo)裝置和引導(dǎo)系統(tǒng)的控制方法





