[發明專利]一種用于視覺SLAM系統的穩定特征點識別方法在審
| 申請號: | 202210368112.7 | 申請日: | 2022-04-08 |
| 公開(公告)號: | CN114723977A | 公開(公告)日: | 2022-07-08 |
| 發明(設計)人: | 管貽生;鄒海華;何力 | 申請(專利權)人: | 廣東工業大學 |
| 主分類號: | G06V10/75 | 分類號: | G06V10/75;G06V10/40;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 廣州粵高專利商標代理有限公司 44102 | 代理人: | 牛念 |
| 地址: | 510090 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 用于 視覺 slam 系統 穩定 特征 識別 方法 | ||
本發明涉及特征點識別技術領域,更具體地,涉及一種用于視覺SLAM系統的穩定特征點識別方法,包括如下步驟:S1.構建訓練樣本;S2.建立預測神經網絡并使用所述訓練樣本進行預訓練,然后對待處理圖像通過預測神經網絡進行預測。本發明能夠針對不規律的環境變化保留具有高度可重復的視覺特征點,從而減少內存消耗以及錯誤的數據關聯,實現提升移動機器人視覺導航的魯棒性。
技術領域
本發明涉及特征點識別技術領域,更具體地,涉及一種用于視覺SLAM系統的穩定特征點識別方法。
背景技術
視覺傳感器具備信息量大且成本低廉的特性,在許多移動機器人應用中都扮演著重要的作用,例如視覺SLAM系統、場景識別以及視覺導航定位等等。其中,視覺SLAM系統和視覺導航是實現移動機器人自主化的兩大關鍵技術。
目前,為了實現移動機器人的視覺導航定位,大多數方案會先利用視覺SLAM系統技術來對環境建立地圖,然后提取當前幀圖像的視覺特征點并通過描述符匹配以及RANSAC剔除來與地圖中的特征點建立正確的數據關聯,實現定位功能。由于傳統視覺特征點檢測方法的局限性,環境的變化使得很多特征點只能在時間跨度很短的情況下被重復檢測出來并被匹配上,即便只是在幾個小時后,能夠正確關聯上的特征點數量也會大大減少。現有的大部分基于特征點法的視覺SLAM系統方案在運行過程中并沒有考慮環境接下來將會發生的光照變化、物體移動以及植被生長等情況,所生成的地圖中會包含大量隨著時間的推移而變得不穩定的特征點。這種地圖對于需要長期在同一個區域執行例行任務式的機器人應用來說,例如巡檢和清潔,往往會在導航定位過程中引入大量的錯誤關聯。這些錯誤的關聯會導致RANSAC找到正確假設的迭代次數變長以及如果錯誤比例超過一定百分比后,RANSAC也會失效,從而造成機器人無法可靠的工作。此外,在對大場景環境進行建圖時,存儲不穩定的特征點及其描述符往往會消耗大量的內存空間,這對于資源有限的移動機器人來說也是一個巨大的限制。
現有技術公開了一種膠囊胃鏡軌跡跟蹤方法及裝置,該方法包括:獲取膠囊胃鏡拍攝到的視頻圖片序列;將所述視頻圖片序列中每一幀圖片依次輸入到訓練好的圖片特征提取模型中,得到每一幀圖片的圖片特征點和對應的特征描述符;根據所述圖片特征點和所述特征描述符,通過ORB SLAM3算法,對膠囊胃鏡進行軌跡跟蹤。本發明通過將深度學習網絡和ORB SLAM3算法結合,實現在使用卷積神經網絡提取特征向量的基礎上,通過ORBSLAM3算法對圖片特征進行匹配跟蹤,提高所提取特征的魯棒性,從而對膠囊胃鏡的軌跡跟蹤實現精密定位。
但上述方案無法用于對視覺SLAM系統的穩定特征點進行識別。
發明內容
本發明的目的在于克服現有技術的不足,提供一種用于視覺SLAM系統的穩定特征點識別方法,能夠針對不規律的環境變化保留具有高度可重復的視覺特征點,從而減少內存消耗以及錯誤的數據關聯,實現提升移動機器人視覺導航的魯棒性。
為解決上述技術問題,本發明采用的技術方案是:
提供一種用于視覺SLAM系統的穩定特征點識別方法,包括如下步驟:
S1.構建訓練樣本;其中,步驟S1包括以下步驟:
S11.選取具有已知圖像位姿的圖像數據集,并在所述圖像數據集中選取多個圖像序列;
S12.對每個圖像序列中的所有圖像均進行多個特征點的提取;
S13.在已提取特征點的圖像序列中選取具有分離視角的圖像序列;
S14.通過重投影對已提取特征點的圖像序列進行特征點匹配,并在具有分離視角的圖像中得到穩定特征點,并隨機選取等量的不穩定特征點,形成訓練樣本;
S2.建立預測神經網絡并使用所述訓練樣本進行預訓練,然后對待處理圖像通過預測神經網絡進行預測;其中,步驟S2包括以下步驟:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣東工業大學,未經廣東工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210368112.7/2.html,轉載請聲明來源鉆瓜專利網。





