[發明專利]一種基于YOLOv3的行人跟蹤方法在審
| 申請號: | 202110290409.1 | 申請日: | 2021-03-18 |
| 公開(公告)號: | CN112884810A | 公開(公告)日: | 2021-06-01 |
| 發明(設計)人: | 張德慧;張德育;呂艷輝;徐子睿 | 申請(專利權)人: | 沈陽理工大學 |
| 主分類號: | G06T7/246 | 分類號: | G06T7/246;G06T5/40;G06T7/90;G06N3/04;G06N3/08 |
| 代理公司: | 沈陽東大知識產權代理有限公司 21109 | 代理人: | 李珉 |
| 地址: | 110159 遼*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 yolov3 行人 跟蹤 方法 | ||
1.一種基于YOLOv3的行人跟蹤方法,其特征在于,包括以下步驟:
步驟1:用戶使用機器視覺軟件,在待檢測視頻的第一幀手動框選跟蹤目標,以此作為模板;
將視頻暫停在第一幀,等待用戶手動框選想要跟蹤的目標;鼠標左鍵按下,打開繪制權限;移動鼠標,框選想要跟蹤的目標;鼠標左鍵抬起,關閉繪制權限;確認繪制結果,以此作為模板;
步驟2:使用YOLOv3算法檢測視頻中的所有行人;
采用YOLO官方預先設置的COCO數據集,設置“person”標簽為檢測標準,僅保留標簽為“person”的目標;使用YOLOv3算法檢測視頻中所有標簽為“person”的物體,即檢測所有行人;
步驟2.1:將輸入圖片的尺寸調整為固定大??;
步驟2.2:經過Darknet-53神經網絡,對COCO數據集指定的物體進行檢測;
步驟2.3:設置尺寸分類標準,根據目標尺寸的不同,分大、中、小三分支輸出;
步驟3:使用顏色直方圖算法,將所有行人檢測結果與跟蹤目標模板進行匹配,鎖定跟蹤目標;
步驟4:對當前幀的行人檢測跟蹤結果使用K鄰域算法,對視頻下一幀中跟蹤目標的位置進行預測,縮小檢測的范圍,提升跟蹤準確率;
步驟5:判斷視頻是否結束:
若視頻尚未處理結束,則跳轉到步驟2;若視頻已處理完畢,則結束程序,完成行人跟蹤。
2.根據權利要求1所述的一種基于YOLOv3的行人跟蹤方法,其特征在于,步驟3具體包括以下步驟:
步驟3.1:使用顏色直方圖算法對圖像顏色特征進行分析;
將待比較的兩張圖片的尺寸調整一致,計算統計顏色直方圖,對于三通道的彩色圖片,分別統計出R,G,B三種顏色直方圖,最后計算巴氏系數,巴氏系數的計算公式為
其中ρ為巴氏系數,P和P’分別為兩張圖片的顏色直方圖,P(i)和P’(i)分別為兩張圖片顏色直方圖的第i個分量,N為分量總數;
步驟3.2:以圖像顏色特征作為匹配條件,計算檢測結果中的所有行人與模板之間的顏色差異并計算其巴氏系數,將巴氏系數最大,即圖像差異最小的行人檢測結果作為跟蹤目標。
3.根據權利要求1所述的一種基于YOLOv3的行人跟蹤方法,其特征在于,步驟4中所述K鄰域是以當前幀檢測到的目標矩形框為基礎,在后一幀以該矩形框為基準搜索鄰近區域,同時搜索矩形中心點與該基礎矩形框中心點坐標位置重合,如下式所示:
其中Wsearch表示矩形搜索區域的寬,Hsearch表示矩形搜索區域的高;Wobject表示前一幀目標矩形區域的寬,Hobject表示前一幀目標矩形區域的高,K即為預測框相對于檢測框的擴大比例。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于沈陽理工大學,未經沈陽理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110290409.1/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種阻尼力矩可調的多回轉式旋轉阻尼器
- 下一篇:天線組件





