[發明專利]一種基于深度多損失融合模型的行人重識別方法在審
| 申請號: | 201910177443.0 | 申請日: | 2019-03-09 |
| 公開(公告)號: | CN110008842A | 公開(公告)日: | 2019-07-12 |
| 發明(設計)人: | 鄭思佳;黃德雙;趙仲秋;趙新勇;孫建宏;趙陽;林擁軍 | 申請(專利權)人: | 同濟大學;合肥工業大學;北京易華錄信息技術股份有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/36;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 上海科盛知識產權代理有限公司 31225 | 代理人: | 葉敏華 |
| 地址: | 200092 *** | 國省代碼: | 上海;31 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 損失函數 融合 預處理方式 預處理操作 方法使用 基本網絡 擴展數據 特征提取 訓練網絡 有效結合 數據集 訓練集 翻轉 擦除 擬合 裁剪 算法 遷移 學習 風格 聯合 圖片 | ||
1.一種基于深度多損失融合模型的行人重識別方法,其特征在于,該方法包括下列步驟:
1)獲取行人原始圖片數據集,將原始圖片數據集劃分訓練集和測試集,并將測試集分為查詢集和候選集;
2)對訓練集的圖片數據依次進行翻轉、加噪聲、自動裁剪、隨機擦除、跨域風格遷移的數據預處理過程,預處理完成后進行數據擴充;
3)選取基準網絡模型,對基準網絡模型進行訓練,更新權重,優化網絡,并對基準網絡的超參數進行調整;
4)將步驟2)處理得到的訓練集圖片數據輸入優化及調整后的基準網絡模型中進行特征提取;
5)對提取出的特征分別兩兩計算歐式距離,并對計算的歐式距離進行排序,在候選集中選取與查詢集中目標距離最近的圖片作為識別結果。
2.根據權利要求1所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,步驟3)中,對于大量數據的行人重識別數據集,采用遷移學習方法對預訓練的模型參數進行初始化后,再進一步進行訓練,對于小量數據的行人數據集,采用在大數據上訓練好的模型進行微調的方式進行訓練。
3.根據權利要求1所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,采用三元組模型為骨架,將三張圖片作為一組輸入,則一組輸入圖片的表達式為:
式中,分別為輸入中一組三張圖片的表達式,和為正樣本對,和為負樣本對。
4.根據權利要求3所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,步驟3)中,采用三元組損失函數、交叉熵損失函數和中心損失函數融合的方式對基準網絡模型進行訓練,其中,采用三元組損失函數用以拉開類間距離及拉近類內距離,采用中心損失函數用以使同一ID的特征圖靠近中心。
5.根據權利要求4所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,三元組損失函數、交叉熵損失函數和中心損失函數融合的損失函數L的表達式為:
L=α1L1+α2L2+α3L3
式中,L1為交叉熵損失函數,L2為三元組損失函數,L3為中心損失函數,α1為交叉熵損失所占比例的權重值,α2為三元組損失所占比例的權重值,α3為中心損失所占比例的權重值。
6.根據權利要求5所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,交叉熵損失函數L1的表達式為:
式中,i為樣本,xi為特征類別,m表示樣本批量大小,n表示行人ID的數量,bj為第j個偏置值,yi為輸入的第i個樣本的標簽信息,Wi為特征層參數矩陣W的第i列。
7.根據權利要求6所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,三元組損失函數L2的表達式為:
式中,thre為用以使同類樣本對間的距離小于不同類樣本對間的距離的超參數,d(·)為距離度量函數,分別為所對應的特征圖,[x]+為函數max(0,x)。
8.根據權利要求7所述的一種基于深度多損失融合模型的行人重識別方法,其特征在于,中心損失函數L3的表達式為:
式中,centeryi為特征的xi類別為yi的中心點。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于同濟大學;合肥工業大學;北京易華錄信息技術股份有限公司,未經同濟大學;合肥工業大學;北京易華錄信息技術股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910177443.0/1.html,轉載請聲明來源鉆瓜專利網。





