[發明專利]基于無人機的車輛跟蹤方法有效
| 申請號: | 202110290410.4 | 申請日: | 2021-03-18 |
| 公開(公告)號: | CN112907634B | 公開(公告)日: | 2023-06-20 |
| 發明(設計)人: | 張德育;呂艷輝;侯英娟 | 申請(專利權)人: | 沈陽理工大學 |
| 主分類號: | G06T7/246 | 分類號: | G06T7/246;G06T7/90;G06T5/40;G06N3/0464;G06N3/08 |
| 代理公司: | 沈陽東大知識產權代理有限公司 21109 | 代理人: | 李珉 |
| 地址: | 110159 遼*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 無人機 車輛 跟蹤 方法 | ||
本發明提供一種基于無人機的車輛跟蹤方法,涉及車輛跟蹤技術領域。本方法使用深度學習方式檢測出視頻中的車輛,對視頻幀的圖像中車輛信息進行提??;計算得到目標車輛所在圖像位置,計算預測下一幀目標車輛所在區域。采用該區域檢測得到的車輛圖像與目標車輛進行相似度對比,采用感知哈希算法使用漢明距離進行相似度對比和直方圖顏色特征值和局部直方圖特征值使用巴氏距離公式進行相似度對比,最后采用合適權重對感知哈希、直方圖顏色特征以及局部直方圖特征相似度對比值進行打分,篩選出得分最高的為跟蹤目標車輛。本發明能夠合理準確的對無人機拍攝視頻中的車輛進行跟蹤,該發明的優點為減少成本、速度快、準確度高。
技術領域
本發明涉及車輛跟蹤技術領域,尤其涉及一種基于無人機的車輛跟蹤方法。
背景技術
Yolo系類算法在視覺領域是比較流行的目標檢測算法,它的創新點是將候選區域和對象識別這兩個階段融合一體,使算法的結構簡單,提高目標檢測速度。Yolov3算法是Yolo系類的第三個版本,它的優點采用了回歸思想,輸入端直接把整張圖片放入網絡,輸出端輸出回歸預選框的類別和位置,使用一個神經網絡就實現了端到端的目標檢測。Yolov3的網絡結構是借鑒了ResNet殘差網絡結構,它使用了多尺度特征進行目標檢測、預測分類用多個Logistic?loss取代了Softmax?loss,可以將單標簽分類改進為多標簽分類。Yolo系列算法在生活、醫療和安全等方面越來越重要,它的優點是方便和計算速度快,成本較低等優點。優化Yolov3算法的中心思想是采用深度學習的方法,對無人機視角下的車輛圖片進行采集,制作成數據集。使用該數據集訓練出車輛模型。改進Yolov3算法的損失函數和融合卷積層和BN層,使用改進模型對車輛進行檢測。使對車輛檢測精度與速度提高。
車輛跟蹤最早是利用激光雷達、地磁感應原理和人工干預等手段,進行周圍車輛的跟蹤。目前基于計算機視覺領域的車輛跟蹤方法,首先是采用檢測的車輛位置估算車輛接下來的行駛狀態,或者采用建立模型來估算車輛接下來的位置,從而進行車輛的跟蹤和預判。這樣檢測和跟蹤的方式,大大降低了視頻流中每幀車輛檢測的耗時,避免了全局搜索。常用的目標生成式跟蹤方法有卡爾曼濾波、粒子濾波、均值漂移跟蹤等;常用的目標判別式跟蹤方法有TLD、相關濾波的跟蹤以及基于深度學習的跟蹤方法。雖然,以上算法對車輛跟蹤都具有一定的效果,但是,由于是基于無人機對車輛跟蹤,車輛在視頻中的形狀和運動狀態導致以上算法對車輛跟蹤精度不高。
發明內容
針對現有技術存在的不足,本發明提出了一種基于無人機的車輛跟蹤方法,針對現有的車輛跟蹤算法在對無人機視角下,對車輛跟蹤精度不高問題,提出了把Yolov3算法對車輛檢測作為車輛跟蹤的特征提取部分,融合到車輛跟蹤,提高車輛跟蹤的精確度。為解決上述技術問題,本發明所采取的技術方案是:
一種基于無人機的車輛跟蹤方法,具體包括以下步驟:
步驟1:收集無人機視角下的車輛圖像,制作數據集;
使用優化Yolov3算法對待測視頻每幀中的車輛圖像信息進行檢測,得到視頻幀中的所有車輛的圖像信息制作數據集;
所述優化Yolov3算法中的損失函數Loss如下所示:
Loss=T1-T3-T4
式中:T1表示為bounding?box和真實目標的box的中心坐標誤差;T3表示為置信度誤差;T4表示為分類誤差;
優化Yolov3算法中的卷積層和BN層如下所示:
式中,xi為卷積層;wi′為合并后權值參數;β’為偏置;Xc為合并后的計算結果;i為卷積層數;m為卷積層總數;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于沈陽理工大學,未經沈陽理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110290410.4/2.html,轉載請聲明來源鉆瓜專利網。





