[發明專利]一種基于AR技術的目標跟蹤方法及系統有效
| 申請號: | 202211148472.2 | 申請日: | 2022-09-21 |
| 公開(公告)號: | CN115249254B | 公開(公告)日: | 2022-12-30 |
| 發明(設計)人: | 汪翠芳 | 申請(專利權)人: | 江西財經大學 |
| 主分類號: | G06T7/246 | 分類號: | G06T7/246;G06T7/45;G06T19/00 |
| 代理公司: | 北京久維律師事務所 11582 | 代理人: | 陳強 |
| 地址: | 330000 江西省南昌市*** | 國省代碼: | 江西;36 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 ar 技術 目標 跟蹤 方法 系統 | ||
1.一種基于AR技術的目標跟蹤方法,其特征在于,包括如下步驟:
S1、獲取視頻圖像,所述視頻圖像通過AR設備上的攝像裝置拍攝得到;
S2、分析所述視頻圖像的第一幀圖像的復雜程度;
S3、根據所述第一幀圖像的復雜程度選擇目標檢測模型;
S4、將所述第一幀圖像輸入到所述目標檢測模型,對所述第一幀圖像進行特征提取,檢測目標所在位置;
S5、獲取所述視頻圖像的第二幀圖像,基于所述第一幀圖像中目標所在位置信息通過目標跟蹤濾波器進行目標跟蹤;
在所述步驟S2中,包括:將所述第一幀圖像轉化為灰度圖像,基于所述灰度圖像生成灰度共生矩陣,計算所述灰度共生矩陣的熵值,用所述熵值表征圖像的復雜程度;
所述灰度共生矩陣表示為從灰度為的像素點出發,坐標偏移量(,)的另一像素點灰度為的概率,所述概率采用以下公式計算:
,式中,表示像素點和的相對距離,表示像素點和的相對角度,表示像素點的坐標;
采用以下公式計算所述灰度共生矩陣的熵值:
,式中,表示從灰度為的像素點出發,坐標偏移量(,)的另一像素點灰度為的概率;
在所述步驟S3中,根據所述第一幀圖像的復雜程度選擇目標檢測模型包括:若熵值小于閾值Q,則選擇第一目標檢測模型,否則選擇第二目標檢測模型;
所述第一目標檢測模型采用One stage算法進行目標檢測,所述第二目標檢測模型采用Two stage算法進行目標檢測。
2.如權利要求1所述的一種基于AR技術的目標跟蹤方法,其特征在于,所述目標檢測模型的訓練過程包括:
獲取樣本圖像,用特征框標記所述樣本圖像中目標所在位置;
提取所述樣本圖像的灰度圖像,生成灰度共生矩陣并計算所述灰度共生矩陣的熵值,將熵值小于閾值Q的樣本圖像設置為第一訓練數據集,將剩余的樣本圖像設置為第二訓練數據集;
對所述第一訓練數據集和所述第二訓練數據集進行樣本擴充,用第一訓練數據集對第一目標檢測模型進行訓練,用第二訓練數據集對第二目標檢測模型進行訓練。
3.如權利要求1所述的一種基于AR技術的目標跟蹤方法,其特征在于,所述步驟S2還包括:
獲取所述第一幀圖像的尺寸數據M*N,根據所述尺寸數據M*N將所述第一幀圖像定義為不同的類型,其中,若M*N小于第一預設尺寸,將所述第一幀圖像定義為小型圖像;若M*N大于或等于第一預設尺寸且小于第二預設尺寸,將所述第一幀圖像定義為中型圖像;若M*N大于或等于第二預設尺寸,將所述第一幀圖像定義為大型圖像;
基于類型對所述第一幀圖像進行預處理,其中,對所述小型圖像不進行灰度值壓縮處理,將所述中型圖像按照第一預設級數對所述第一幀圖像進行灰度值壓縮,將所述大型圖像按照第二預設級數對所述第一幀圖像進行灰度值壓縮。
4.如權利要求1所述的一種基于AR技術的目標跟蹤方法,其特征在于,在完成m次目標跟蹤之后,獲取當前被選中的目標檢測模型的類型信息,所述類型信息包括第一目標檢測模型和第二目標檢測模型,并計算m次目標跟蹤中完成一次目標跟蹤的平均時長t,并將平均時長t與時長閾值T進行比較;
在平均時長t大于或等于時長閾值T的情況下,如果當前被選中的目標檢測模型為所述第一目標檢測模型,則在進行下一次目標檢測時,執行所述步驟S2,若計算得到的熵值大于或等于閾值Q,將所述第一目標檢測模型更換為所述第二目標檢測模型;在所述平均時長t小于時長閾值T的情況下,如果當前被選中的目標檢測模型為所述第二目標檢測模型,則在進行下一次目標檢測前時,執行所述步驟S2,若計算得到的熵值小于閾值Q,將所述第二目標檢測模型更換為所述第一目標檢測模型。
5.如權利要求4所述的一種基于AR技術的目標跟蹤方法,其特征在于,在某一幀圖像被檢測到目標所在位置并輸出結果后視為完成一次目標跟蹤,獲取下一幀待檢測圖像視為進行下一次目標檢測。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于江西財經大學,未經江西財經大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211148472.2/1.html,轉載請聲明來源鉆瓜專利網。





