[發明專利]基于事件相機的特征點匹配方法有效
| 申請號: | 201910551377.9 | 申請日: | 2019-06-24 |
| 公開(公告)號: | CN110414558B | 公開(公告)日: | 2021-07-20 |
| 發明(設計)人: | 余磊;陳欣宇;楊文;楊公宇;葉琪霖;王碧杉;周立鳳 | 申請(專利權)人: | 武漢大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62 |
| 代理公司: | 武漢科皓知識產權代理事務所(特殊普通合伙) 42222 | 代理人: | 王琪 |
| 地址: | 430072 湖*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 事件 相機 特征 匹配 方法 | ||
本發明公開了一種對已檢測到的特征點提取描述子的方法,并使用生成的描述子對特征點進行匹配。本發明的目的在于解決傳統的特征點描述子算法可能無法穩定適用于事件相機的問題,本發明利用事件相機的時間戳信息對特征點提取描述子會更好的利用事件相機的優勢,使描述子信息更加豐富,使匹配結果更準確。
技術領域
本發明屬于圖像處理領域,用于生成基于事件相機的特征點描述子,并進行特征點匹配。
背景技術
機器視覺主要依賴于基于幀的相機,這些傳統相機以固定的時間曝光和幀速率來獲取整個幀,以矩陣形式存儲及處理圖像信息。這種簡單的圖像存儲格式對于圖像處理及特征提取而言可能并不理想,這很大程度上是因為基于灰度的圖像含有很多的冗余信息。像素強度信息對于人眼的識別及檢索十分有用,然而卻加大了基于機器的圖像處理的難度。同時,序列圖像讀出可能會對圖像處理硬件造成不利影響,因為在獲得所需特征前必須處理大量的不必要數據。同時普通相機對光照變化較為敏感,面對高動態光照場景容易過暗或過曝,高速運動狀態下,普通光學圖像所產生的運動模糊或成像效果不佳,這些都嚴重影響圖像質量。高速運動狀態下普通光學相機成像如圖1所示。
事件相機在機器視覺領域得到了越來越多的關注,它是一種模仿人類視網膜的新型視覺傳感器,其像素陣列面通過光強變化觸發輸出發生光強變化的像素點位置、時間與強度,故其輸出不是標準相機的視頻幀序列,而是一系列異步事件流。更具體的說,在tj時刻,uj=(xj,yj)像素位置上的亮度增量達到閾值±c(c>0),那么一個事件ej=(xj,yj,tj,pj)將被觸發,pj∈{+1,-1}表示事件的極性正號表示亮度增加,負號表示亮度減小,因此事件相機輸出的是異步事件流,由于事件僅僅記錄增量變化,所以場景的絕對亮度值不再是直接可見的。這種相機不受傳統的曝光時間和幀速率的限制,時間坐標精度能夠達到微秒級別,能有效過濾背景冗余信息,專注捕捉相機運動信息,節省數據傳輸帶寬與降低數據存儲壓力,具有高動態、低延時、低功耗的優勢,這使得它們能夠在高速運動期間或者在以高動態范圍為特征的場景中提供可靠的視覺信息。高速運動狀態下事件相機成像如圖2所示。
在某些困難場景,如高速運動或光照條件變化劇烈的狀態下,普通光學圖像所產生的運動模糊或成像效果不佳導致特征點的檢測、特征點描述以及特征點匹配存在極大的困難。然而,事件相機可以獲取高速運動物體的實時狀態,且擁有高動態范圍。
由于事件相機輸出的是一個個孤立的點,對于同一物體,不同時刻不同運動狀態下呈現在事件幀中的點可能并不穩定。因此,傳統的特征點描述子算法可能無法穩定適用。同時,相比于普通光學圖像,事件輸出的事件點還包含了各自的時間信息。而直接利用傳統描述子算法則沒有很好的利用到這一信息。因此,從時間戳信息的角度對事件特征點提取描述子會更好的利用事件相機的優勢。
發明內容
本發明生成基于事件相機的特征點描述子,并根據描述子進行特征點匹配。在形狀上下文算法的啟發下,提出一種針對事件圖像成像特點的特征點描述子生成方法,并根據生成的描述子對特征點進行匹配。其中,生成特征點描述子的方法與傳統方法略有不同,由于時間相機可以獲得事件點的位置、時間以及極性,因此本發明利用到了時間戳信息,這會更好地利用到事件相機的優勢。
本發明提供的技術方案是一種基于事件相機的特征點描述子匹配方法,具體步驟如下:
步驟1,在以特征點pi為圓心、R1為最外圓半徑、R2為最內圓半徑的局域內按對數距離間隔建立N個同心圓,即將(log10(R1),log10(R2))按照按對數(即logspace)等分為N個元素,然后將此區域沿圓周方向M等分,生成網格,即bins,如圖4所示。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢大學,未經武漢大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910551377.9/2.html,轉載請聲明來源鉆瓜專利網。





