[發明專利]一種基于視頻監控的目標軌跡模糊數據融合方法有效
| 申請號: | 201711329881.1 | 申請日: | 2017-12-13 |
| 公開(公告)號: | CN108093213B | 公開(公告)日: | 2020-05-08 |
| 發明(設計)人: | 仇功達;何明;劉光云;周千棚;石高平;張傳博;鄭翔 | 申請(專利權)人: | 中國人民解放軍陸軍工程大學 |
| 主分類號: | H04N7/18 | 分類號: | H04N7/18;H04W4/02;H04W64/00;G06K9/62;G06K9/00;H04W4/021 |
| 代理公司: | 南京經緯專利商標代理有限公司 32200 | 代理人: | 田凌濤 |
| 地址: | 210014 江*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 視頻 監控 目標 軌跡 模糊 數據 融合 方法 | ||
本發明涉及一種基于視頻監控的目標軌跡模糊數據融合方法,應用于實際警務工作中,警務人員無法通過異常對象主動上傳以獲得GPS位置數據,僅能通過監控傳感器網絡獲取定位信息。且各類案件嫌疑對象在預謀、實施、藏匿等不同階段所產生的行為多具有主觀隱蔽性,導致經過監控網絡采集到的數據多為模糊數據,本發明所設計基于視頻監控的目標軌跡模糊數據融合方法,能有助于恢復模糊軌跡,為警務工作、目標追蹤帶來幫助。
技術領域
本發明涉及一種基于視頻監控的目標軌跡模糊數據融合方法,屬于目標軌跡追蹤技術領域。
背景技術
在軌跡融合領域,常用的方法主要由基于預測模型的融合,以及基于濾波算法的融合,Doug Cox等人針對傳感器網絡的低頻,低保真度數據,提出了一種新的用于馬爾可夫鏈的重組方案,并使用新的方案基于原始數據來生成概率軌跡。P Zhang等人提出了一種結合穩定位置與卡爾曼濾波的融合算法。同時AO B Wang等人提出了一種分布式多目標跟蹤算法,基于廣義協方差交集(G-CI)的多伯努利(MB)濾波器。然而實際識別過程中,由于多種復雜現場情況,以及被追蹤目標的主觀隱蔽與干擾,使得圖像識別難以得出準確結論。典型多傳感器數據融合的問題在于傳感器數據數值精準不高,而本文所研究的傳感器數據融合針對的是數據的真偽性模糊。在視頻網絡下軌跡數據融合中,重點關注了某重要屬性特征下的匹配技術,忽略了多屬性多角度模糊決策下的意見整合,即目標識別結論的模糊性,將軌跡融合問題化簡為了圖像識別后,確定點的時序連線,對于時序連線中存在的少數不確定點進行濾波即可。而實際過程中,為了擴大搜索面,會弱化特征,考慮更多的可疑車輛。如何從倍于真實數據的不確定信息中恢復真實軌跡成為實際難點。針對低精度的位置信息中通過冗余能對真實分布做出一定的恢復,但是錯誤數據中不會提供任何有用的信息,只會進一步增加誤差。此外,要跟蹤的軌跡往往是異常的。無論是基于濾波器還是預測模型,都很容易失去融合中的真實異常信息。
發明內容
本發明所要解決的技術問題是提供一種采用全新邏輯結構設計,能夠有效提高軌跡跟蹤精度的基于視頻監控的目標軌跡模糊數據融合方法。
本發明為了解決上述技術問題采用以下技術方案:本發明設計了一種基于視頻監控的目標軌跡模糊數據融合方法,用于獲得目標對象由起點位置的軌跡數據,包括如下步驟:
步驟A.針對以起點位置為中心、預設距離半徑范圍內各個監控攝像裝置所捕獲的各個模糊對象,實現與目標對象的群體智能決策,篩選獲得目標對象所對應的各個待處理模糊對象,并進入步驟B;
步驟B.根據各個待處理模糊對象的坐標位置,以及所對應的時間點,獲得由起點位置開始,依時序依次到達各個待處理模糊對象坐標位置的速度信息,作為各個待處理模糊對象分別所對應的到達速度信息,然后進入步驟C;
步驟C.根據各個待處理模糊對象分別所對應的到達速度信息,結合起點位置,依時序順序方向,分別針對各個待處理模糊對象,獲得待處理模糊對象之前相應數量處理對象分別對其的信任度,并基于預設信任度劃分的占比,更新目標對象所對應的各個待處理模糊對象,然后進入步驟D;
步驟D.根據各個待處理模糊對象分別所對應的到達速度信息,結合起點位置,依時序逆序方向,分別針對各個待處理模糊對象,獲得待處理模糊對象之后相應數量處理對象分別對其的信任度,并基于預設信任度劃分的占比,更新目標對象所對應的各個待處理模糊對象,然后進入步驟E;
步驟E.針對目標對象所對應的各個待處理模糊對象,基于由起點位置依次按時序經過該各個待處理模糊對象的速度合理性,采用預設得分與偏差度方法,實現目標對象由起點位置的軌跡數據融合。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國人民解放軍陸軍工程大學,未經中國人民解放軍陸軍工程大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711329881.1/2.html,轉載請聲明來源鉆瓜專利網。





