日韩在线一区二区三区,日本午夜一区二区三区,国产伦精品一区二区三区四区视频,欧美日韩在线观看视频一区二区三区 ,一区二区视频在线,国产精品18久久久久久首页狼,日本天堂在线观看视频,综合av一区

[發明專利]一種基于多攝像機無重疊視域行人匹配方法無效

專利信息
申請號: 201210002873.7 申請日: 2012-01-06
公開(公告)號: CN102592144A 公開(公告)日: 2012-07-18
發明(設計)人: 林國余;楊彪;張為公 申請(專利權)人: 東南大學
主分類號: G06K9/64 分類號: G06K9/64;G06T7/20
代理公司: 南京經緯專利商標代理有限公司 32200 代理人: 曹毅
地址: 215000 江蘇*** 國省代碼: 江蘇;32
權利要求書: 查看更多 說明書: 查看更多
摘要:
搜索關鍵詞: 一種 基于 攝像機 重疊 視域 行人 匹配 方法
【說明書】:

技術領域

發明屬于計算機視覺領域,具體涉及智能監控領域,特別涉及一種基于多攝像機無重疊視域行人匹配方法。

背景技術

隨著計算機技術的發展以及人們安全意識的不斷提高,視頻監控技術越來越受到人們的重視。由于傳統的單攝像機視域有限,監控范圍較小,多數場合往往采用多個攝像機進行大范圍監控,譬如社區和重要建筑物內部的安全監控,城市路網交通狀況的監控,地鐵站和飛機場的監控,以及停車場和超市的監控等等。但是,大范圍監控必然存在攝像頭盲區,目標在時間和空間上都是分離的,如何將不同攝像機中相同目標進行匹配是無重疊視域監控的關鍵。

目前常用的目標匹配方法主要包括:基于特征的方法和基于模型的方法兩大類。基于特征的方法又稱為基于知識的方法,它是目標匹配中最常用的方法,通過對目標局部或整體某些特征的確認來匹配不同攝像機視域中的目標。常用于匹配的特征包括顏色、紋理、形狀等特征,其中顏色特征的使用最為頻繁,顏色特征主要包括:RGB直方圖特征,如文獻“Huang,?T.,?Russell,?S..?Object?identification?in?a?Bayesian?context?[C].?International?Joint?Conferences?on?Artificial?Intelligence,?1997:?1276-1283.”提出的使用RGB直方圖特征匹配高速公路上的車輛,RGB直方圖描述了圖像的整體顏色信息,提取簡單,但是容易受光照變化的影響,而且不同的圖像內容其RGB直方圖可能很接近,因此匹配準確率不高,不適用于多攝像機無重疊視域跟蹤;?HSV特征,將彩色圖像首先由RGB空間轉化到HSV空間,然后提取HSV直方圖,由于HSV空間將光照分量V獨立了出來,因此可以在一定程度上抑制光照變化帶來的影響,如文獻“Jingang?Huang,?Bin?Kong,?“A?New?Method?of?Unstructured?Road?Detection?Based?on?HSV?Color?Space?and?Road?Features,”?Information?Acquisition,?2007.?ICIA?07.?Pages:596-601”使用HSV特征檢測道路以去除陰影的影響,但是HSV容易產生畸變,往往會影響匹配的精度;本發明所提出的主顏色特征,提取出目標的主顏色,使用主顏色來表征整個目標的特征,可以在一定程度上提高匹配的魯棒性,同時,主顏色中包含的標準化RGB值對光照變化具有較好的魯棒性。除了顏色特征外,常用于匹配的特征還包括紋理特征,例如文獻“陳遠,陳鍛生.?一種融合LBP紋理特征的多姿態人臉跟蹤方法[J].華僑大學學報,2010,Vol.31,No.3.”提出的用于人臉跟蹤匹配的LBP紋理特征。外形特征,例如目標面積、寬高比等。但是要在多攝像機無重疊視域下對目標進行匹配,光照的改變和目標姿態的變化會對匹配精度造成較大影響,因此往往需要將多個特征結合起來使用,以實現準確的匹配。

基于模型的方法就是為目標建立二維或三維模型,通過在圖像中進行模型匹配來實現運動運動目標的匹配。但由于監控場景中可能出現的目標是多種多樣的,目標的姿態在運動過程中也會發生改變,從而使目標表現出各種不同的形狀,很難建立統一的模型來對其進行描述。同時,基于模型的匹配方法對目標模型的依賴性過大,一旦模型匹配失敗則無法正確識別出運動目標,而建立精細的目標模型雖可以提高匹配的精度,但勢必造成匹配過程中計算量的成倍增加,難以滿足實時性的要求。

因此,研究一種實時性好、魯棒性高的多攝像機無重疊視域目標匹配方法,對準確匹配不同視域中的目標以及對感興趣目標進行有效跟蹤有著積極的影響。

發明內容

本發明的目的在于克服現有技術存在的以上問題,提供一種基于多攝像機無重疊視域行人匹配方法。此方法對行人目標姿態變化,環境光照變化具有很強的魯棒性。

為實現上述技術目的,達到上述技術效果,本發明通過以下技術方案實現:

一種基于多攝像機無重疊視域行人匹配方法,包括以下步驟:

步驟1、建立混合高斯背景模型;

步驟2、使用背景減除法獲得行人目標;

步驟3、提取行人目標的主顏色特征;

步驟4、進行主顏色判別分析;

步驟5、對于疑似匹配目標提取空間紋理特征;

步驟6、使用空間紋理特征進行進一步判別。

下載完整專利技術內容需要扣除積分,VIP會員可以免費下載。

該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于東南大學,未經東南大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服

本文鏈接:http://www.szxzyx.cn/pat/books/201210002873.7/2.html,轉載請聲明來源鉆瓜專利網。

×

專利文獻下載

說明:

1、專利原文基于中國國家知識產權局專利說明書;

2、支持發明專利 、實用新型專利、外觀設計專利(升級中);

3、專利數據每周兩次同步更新,支持Adobe PDF格式;

4、內容包括專利技術的結構示意圖流程工藝圖技術構造圖;

5、已全新升級為極速版,下載速度顯著提升!歡迎使用!

請您登陸后,進行下載,點擊【登陸】 【注冊】

關于我們 尋求報道 投稿須知 廣告合作 版權聲明 網站地圖 友情鏈接 企業標識 聯系我們

鉆瓜專利網在線咨詢

周一至周五 9:00-18:00

咨詢在線客服咨詢在線客服
tel code back_top
主站蜘蛛池模板: 亚洲第一天堂久久| 国产aⅴ一区二区| 国产有码aaaae毛片视频| 韩国女主播一区二区| 一区二区在线视频免费观看 | 亚洲一二区在线观看| 国产三级一区二区| 国产91麻豆视频| 91精品啪在线观看国产线免费| 欧美一区二区三区久久久| 91理论片午午伦夜理片久久| 又黄又爽又刺激久久久久亚洲精品| 国产精品久久久久激情影院| 国产中文字幕91| 久久夜靖品2区| 亚洲va国产| 久久久精品a| 欧美精品一区久久| 国语对白一区二区三区| 欧美一区二区三区在线视频观看| 欧美日韩国产欧美| 国产精品高潮呻| 97人人揉人人捏人人添| 日本三级韩国三级国产三级| 日本一区二区在线观看视频| 2023国产精品自产拍在线观看| 国产偷亚洲偷欧美偷精品| 99精品一区二区| 国产乱子一区二区| 日本伦精品一区二区三区免费| 97人人模人人爽人人喊0| 久久精品欧美一区二区| 精品少妇的一区二区三区四区| 91精品系列| 狠狠色丁香久久综合频道日韩| 国产二区视频在线播放| 久久免费视频99| 欧美一区亚洲一区| 国产影院一区二区| 日韩av三区| 国内精品久久久久影院日本| 精品一区二区三区自拍图片区| 欧美一区二区三区视频在线观看| 国产大学生呻吟对白精彩在线| 国产99久久久精品视频| 国产一区二区四区| 精品香蕉一区二区三区| 色狠狠色狠狠综合| 久久免费视频一区| 亚日韩精品| 亚洲精品乱码久久久久久高潮| 久久人做人爽一区二区三区小说| 亚洲午夜国产一区99re久久| 精品久久久综合| 国产精品乱综合在线| 欧美日韩一区二区三区免费| 91精品免费观看| 久久er精品视频| 国产精品电影一区| 午夜裸体性播放免费观看| 国产精品欧美日韩在线| 8x8x国产一区二区三区精品推荐 | 国产清纯白嫩初高生视频在线观看| 91精品国产九九九久久久亚洲 | 国产九九影院| 大桥未久黑人强制中出| 午夜伦理在线观看| 456亚洲精品| 又黄又爽又刺激久久久久亚洲精品| 国产精品一区二| 91一区二区三区在线| 99国产超薄丝袜足j在线观看| 性国产videofree极品| 欧美日韩国产123| 午夜特级片| 国内精品久久久久影院日本| 粉嫩久久99精品久久久久久夜| 欧美一区二区三区久久精品| 精品国产乱码久久久久久免费| 精品videossexfreeohdbbw| 精品综合久久久久| 色综合久久88|