[發明專利]一種基于計算機視覺的行人重識別方法在審
| 申請號: | 202010114631.1 | 申請日: | 2020-02-25 |
| 公開(公告)號: | CN111275010A | 公開(公告)日: | 2020-06-12 |
| 發明(設計)人: | 曾智勇 | 申請(專利權)人: | 福建師范大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 福州君誠知識產權代理有限公司 35211 | 代理人: | 戴雨君 |
| 地址: | 350108 福建省福州*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 計算機 視覺 行人 識別 方法 | ||
1.一種基于計算機視覺的行人重識別方法,其特征在于:包括有如下步驟:
S1:采集行人圖像:將采集的行人圖像劃分為訓練集和測試集,分別對其中的行人進行人工標注,得到真實數據框的類別和坐標數據;
S2:聚類獲得先驗框:對人工標注的真實數據框聚類,以框的面積的重疊程度作為損失度量,得到幾個初試先驗框;
S3:構建端到端的可同時預測目標行人的位置、大小及類別的卷積神經網絡:以改進的ResNet網絡作為網絡框架,以同時約束目標位置、類別的損失函數構建端到端的卷積神經網絡;
S4:訓練端到端卷積神經網絡:批量讀入行人圖像后,對讀入的行人圖像進行數據擴充,對擴充的行人圖像進行兩次縮放;第一次是從擴充的行人圖像隨機縮放到任意尺寸,第二次是從縮放后的任意尺寸圖像再次縮放到指定尺寸,最后將縮放到指定尺寸的行人圖像輸入卷積神經網絡中進行訓練,得到訓練權重;
S5:加載權重:將步驟S4得到的網絡權重加載到步驟S3構建的卷積神經網絡中;
S6:預測行人的位置和類別:讀入待識別的行人圖像,輸入到加載好權重的網絡中進行識別,同時獲得行人目標識別的位置坐標及所屬類別信息;
S7:去除冗余預測框:采用非極大值抑制方法處理獲得的位置坐標及所屬類別信息,獲得最終的預測框;
S8:預測結果的可視化:將預測框數據映射到原圖中,在原圖中畫出預測框并且標出行人目標所屬類別標簽;
S9:記錄和分析:實時記錄待測試行人有關的行人圖像,分析所得的實時數據,對行人進行解譯,將解譯結果直接顯示在屏幕。
2.根據權利要求1所述的一種基于計算機視覺的行人重識別方法,其特征在于:所述步驟S2具體包括如下步驟:
S2-1:讀取行人圖像訓練集和測試集樣本的真實框數據;
S2-2:采用k-means聚類算法,按照下式的損失度量d進行聚類,獲得先驗框:d=1-IoU。其中,IoU是交并比,表示目標檢測中產生的候選框與原標記框的交疊率,即它們的交集與并集的比值。
3.根據權利要求1所述的一種基于計算機視覺的行人重識別方法,其特征在于:所述步驟S3具體包括如下步驟:
S3-1:以ResNet卷積神經網絡為基礎,使用簡單的1*1和3*3卷積核,構建包含G個卷積層和5個池化層的卷積神經網絡;
S3-2:按照下式的損失函數訓練構建的卷積網絡:
其中,損失函數的第一項為預測目標框的中心點坐標損失,其中λcoord為坐標損失系數,1≤λcoord≤5;S2表示圖片劃分網格的個數,B表示每個網格預測框的個數;表示有目標時,第i個網格中的第j個預測框是否負責這個目標的預測;(xi,yi)表示目標真實框中心點坐標;表示預測框中心點坐標;函數第二項為預測框寬高損失;(wi,hi)表示真實框的寬高,表示預測框的寬高;函數第三項和第四項是預測框中包含目標的概率損失,其中λnoobj表示不包含目標時的損失系數,0.1≤λnoobj≤1,以保證卷積神經網絡能夠區分目標和背景塊;表示不含有目標時,第i個網格中的第j個預測框是否負責這個目標的預測;Ci表示包含目標的真實概率,表示預測包含目標的概率;函數第五項是預測類別概率損失,表示第i個網格含有目標中心點;pi(c)表示真實目標類別,表示預測的目標類別;c表示類別數。
4.根據權利要求3所述的一種基于計算機視覺的行人重識別方法,其特征在于:所述坐標損失系數λcoord取值為3;所述不包含目標時的損失系數λnoobj取值為1。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于福建師范大學,未經福建師范大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010114631.1/1.html,轉載請聲明來源鉆瓜專利網。





