[發明專利]基于空間約束的行人重識別方法及設備有效
| 申請號: | 201710916212.8 | 申請日: | 2017-09-30 |
| 公開(公告)號: | CN107704824B | 公開(公告)日: | 2020-05-29 |
| 發明(設計)人: | 張政;李曉波 | 申請(專利權)人: | 北京正安維視科技股份有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06T7/246 |
| 代理公司: | 北京眾合誠成知識產權代理有限公司 11246 | 代理人: | 文芳 |
| 地址: | 100088 北京市西城*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 空間 約束 行人 識別 方法 設備 | ||
本發明提出了一種基于空間約束的行人重識別方法及設備,包括:獲取觀測場景內的圖像信息進行分析,計算投影矩陣;智能前端對相應的行人目標進行單鏡頭跟蹤,生成行人目標跟蹤軌跡,通過坐標映射轉換為三維空間的坐標軌跡;后臺服務器接收來自智能前端返回的行人目標跟蹤軌跡,對該行人目標跟蹤軌跡進行聚合,得到聚合軌跡;后臺服務器根據聚合軌跡,分別對每個單鏡頭下的行人目標跟蹤軌跡進行采樣;后臺服務器接收到待檢索的行人圖像,提取該行人圖像的特征作為檢索特征,將該檢索特征與存儲的多個特征基礎對比,查找對比成功的行人目標軌跡,并按照置信度進行排序,返回檢索結果。本發明通過三維空間約束提升行人搜索的準確性。
技術領域
本發明涉及智能視頻分析技術領域,特別涉及一種基于空間約束的行人重識別方法及設備。
背景技術
隨著經濟的快速發展和人口的流動,特別是在大城市,出現較多的人口密集區域,而這些人口密集區域正是安全問題頻發的敏感區域,因此這些敏感區域也成為城市建設中的隱憂。為了杜絕重點敏感區域中各種盜竊、搶劫和打架等問題的發生,有關部門在相關位置安裝了大量的攝像頭,用于對這些區域進行實時監管,但由于距離較遠或者清晰度等問題,在發生突發事件后并不能對嫌疑人進行準確的定位和追蹤,并不能達到預期的效果。
傳統的行人re-id的方法比較簡單,都是針對多個鏡頭的視頻圖像進行導入,僅僅依靠特征比對來處理,并沒有利用到有效的三維空間信息,甚至是時間信息,這些信息作為目標的連續性軌跡刻畫是非常有價值的。
發明內容
本發明的目的旨在至少解決所述技術缺陷之一。
為此,本發明的目的在于提出一種基于空間約束的行人重識別方法及設備。
為了實現上述目的,本發明一方面的實施例提供一種基于空間約束的行人重識別方法,包括如下步驟:
步驟S1,利用拍攝設備獲取觀測場景內的圖像信息,并傳輸給智能前端,由所述智能前端對所述圖像信息進行分析,提取場景內的行人特征,將所述行人特征綁定對應時間信息標簽,并根據預先標定好的拍攝設備位置和角度以計算投影矩陣,以實現多個像素坐標到統一的三維坐標的轉換;
步驟S2,所述智能前端根據步驟S1中得到行人特征,對相應的行人目標進行單鏡頭跟蹤,生成行人目標跟蹤軌跡,通過坐標映射轉換為三維空間的坐標軌跡;
步驟S3,后臺服務器接收來自所述智能前端返回的行人目標跟蹤軌跡,對該行人目標跟蹤軌跡進行聚合,得到聚合軌跡,包括:分別采用單鏡頭內部聚合和跨鏡頭聚合方式;
步驟S4,所述后臺服務器根據步驟S3中得到的聚合軌跡,分別對每個單鏡頭下的行人目標跟蹤軌跡進行采樣,作為行人目標的特征基礎Gallery,并將跨鏡頭聚合的目標對應同一個Gallery ID;
步驟S5,所述后臺服務器接收到待檢索的行人圖像,提取該行人圖像的特征作為檢索特征,將該檢索特征與存儲的多個特征基礎Gallery進行對比,查找對比成功的行人目標軌跡,并按照置信度進行排序,返回檢索結果。
進一步,在所述步驟S1中,所述智能前端對所述圖像信息進行分析,包括:所述智能前端基于GPU加速的DCNN算法,該算法分為兩步訓練:
首先訓練行人檢測器,然后進行網絡壓縮以減少層數和通道、權值聚合,并根據前面的檢測結果重新訓練,得到適用于當前視角的檢測器;在行人檢測算法基礎上加入特定特征檢測,對局部特性進行刻畫,以作為整體特征的補充特征。
進一步,在所述步驟S3中,所述單鏡頭內部的聚合,包括如下步驟:內部聚合通過re-id處理由于遮擋、變形、光照問題導致的目標軌跡斷續情況,通過特征比對實現連續軌跡刻畫;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京正安維視科技股份有限公司,未經北京正安維視科技股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710916212.8/2.html,轉載請聲明來源鉆瓜專利網。





