[發(fā)明專利]一種基于深度學習的運動目標跟蹤與定位方法有效
| 申請?zhí)枺?/td> | 202110047697.8 | 申請日: | 2021-01-14 |
| 公開(公告)號: | CN112734794B | 公開(公告)日: | 2022-12-23 |
| 發(fā)明(設計)人: | 蔡志浩;強祺昌;趙江;王英勛 | 申請(專利權(quán))人: | 北京航空航天大學 |
| 主分類號: | G06T7/20 | 分類號: | G06T7/20;G06T7/70;G06T7/80 |
| 代理公司: | 北京航智知識產(chǎn)權(quán)代理事務所(普通合伙) 11668 | 代理人: | 黃川;史繼穎 |
| 地址: | 100191*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 深度 學習 運動 目標 跟蹤 定位 方法 | ||
1.一種基于深度學習的運動目標跟蹤與定位方法,其特征在于,包括如下步驟:
S1:利用飛行器搭載攝像頭,采集視頻圖像;
S2:利用深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法,檢測所述視頻圖像中當前幀圖像的目標區(qū)域,輸出當前幀圖像的目標區(qū)域內(nèi)運動目標的分類結(jié)果和目標區(qū)域的圖像坐標;
S3:將深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法輸出的當前幀圖像的目標區(qū)域內(nèi)運動目標的分類結(jié)果和目標區(qū)域的圖像坐標,輸入深度學習SORT跟蹤算法,預測所述視頻圖像的下一幀圖像中運動目標的位置,判斷下一幀圖像中運動目標的預測位置與當前幀圖像的目標區(qū)域之間的IOU是否大于IOU1閾值;若是,則深度學習SORT跟蹤算法輸出下一幀圖像中運動目標的預測位置;若否,則利用深度學習SORT跟蹤算法重新預測下一幀圖像中運動目標的位置;
S4:將深度學習SORT跟蹤算法輸出的下一幀圖像中運動目標的預測位置,輸入SolvePnp位置估計算法,根據(jù)三角形相似原理,計算下一幀圖像中運動目標的世界坐標;
步驟S3,將深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法輸出的當前幀圖像的目標區(qū)域內(nèi)運動目標的分類結(jié)果和目標區(qū)域的圖像坐標,輸入深度學習SORT跟蹤算法,預測所述視頻圖像的下一幀圖像中運動目標的位置,判斷下一幀圖像中運動目標的預測位置與當前幀圖像的目標區(qū)域之間的IOU是否大于IOU1閾值;若是,則深度學習SORT跟蹤算法輸出下一幀圖像中運動目標的預測位置;若否,則利用深度學習SORT跟蹤算法重新預測下一幀圖像中運動目標的位置,具體包括:
利用卡爾曼濾波算法對所述視頻圖像的下一幀圖像中運動目標的位置進行預測:
其中,u表示當前幀圖像中運動目標的中心橫坐標,v表示當前幀圖像中運動目標的中心縱坐標,s表示當前幀圖像中目標區(qū)域的尺寸,r表示目標區(qū)域的長寬比,表示預測的下一幀圖像中運動目標的中心橫坐標,表示預測的下一幀圖像中運動目標的中心縱坐標,表示預測的下一幀圖像中目標區(qū)域的尺寸;
將下一幀圖像的預測結(jié)果與當前幀圖像的檢測結(jié)果進行比對,利用匈牙利關(guān)聯(lián)算法引入代價矩陣,代價矩陣定義為下一幀圖像中運動目標的預測位置與當前幀圖像的目標區(qū)域之間的IOU,判斷下一幀圖像中運動目標的預測位置與當前幀圖像的目標區(qū)域之間的IOU是否大于IOU1閾值,若是,則預測結(jié)果與檢測結(jié)果比對成功,深度學習SORT跟蹤算法輸出下一幀圖像中運動目標的預測位置;若否,則利用深度學習SORT跟蹤算法重新預測下一幀圖像中運動目標的位置。
2.如權(quán)利要求1所述的基于深度學習的運動目標跟蹤與定位方法,其特征在于,在執(zhí)行步驟S1,利用飛行器搭載攝像頭,采集視頻圖像之后,在執(zhí)行步驟S2,利用深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法,檢測所述視頻圖像中當前幀圖像的目標區(qū)域,輸出當前幀圖像的目標區(qū)域內(nèi)運動目標的分類結(jié)果和目標區(qū)域的圖像坐標之前,還包括:
對所述視頻圖像進行數(shù)據(jù)歸一化處理:
輸入:X=x1,...,xm (1)
過程:
輸出:
其中,X表示上一層深度神經(jīng)網(wǎng)絡的輸出結(jié)果,xi表示每層深度神經(jīng)網(wǎng)絡中的參數(shù),i=1,2,…,m;μβ表示深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法訓練批次均值,m表示深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法訓練批次大小,表示深度神經(jīng)網(wǎng)絡YOLOv3-Tiny算法訓練批次方差,為數(shù)據(jù)歸一化處理中的中間參數(shù),ε是防止式(4)中分母為0的正數(shù);yi表示本層深度神經(jīng)網(wǎng)絡的輸出結(jié)果,γ和β表示學習參數(shù)。
3.如權(quán)利要求1或2所述的基于深度學習的運動目標跟蹤與定位方法,其特征在于,步驟S1,利用飛行器搭載攝像頭,采集視頻圖像,具體包括:
利用四旋翼F450飛行器搭載單目攝像頭,采集視頻圖像。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于北京航空航天大學,未經(jīng)北京航空航天大學許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110047697.8/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





