[發明專利]一種基于端到端關系網絡的視覺SLAM閉環檢測方法有效
| 申請號: | 202010017054.4 | 申請日: | 2020-01-08 |
| 公開(公告)號: | CN111241986B | 公開(公告)日: | 2021-03-30 |
| 發明(設計)人: | 肖卓凌;李瑩;陳寧皓;黃渲寶;袁正希 | 申請(專利權)人: | 電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/46;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 成都正華專利代理事務所(普通合伙) 51229 | 代理人: | 陳選中 |
| 地址: | 611731 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 端到端 關系 網絡 視覺 slam 閉環 檢測 方法 | ||
本發明公開了一種基于端到端關系網絡的視覺SLAM閉環檢測方法,包括以下步驟:S1:向VGG16網絡中輸入視覺傳感器采集的先前圖像和當前圖像;S2:對原始數據進行預處理;S3:通過5個卷積階段獲取預處理后的先前圖像和當前圖像的特征,得到多層特征;S4:對多層特征進行加權融合;S5:對多層特征進行標準化,得到標準特征;S6:對標準特征進行組合,得到組合圖像;S7:通過CNN關系模塊回歸得到組合圖像的相似性得分,完成閉環檢測。本發明可避免學習冗余特征,使得學習到的特征更加適應相似性度量要求的可區分性,可以更加準確地檢測閉環并節省檢測時間,提高閉環檢測地精度。
技術領域
本發明屬于定位與地圖技術領域,具體涉及一種基于端到端關系網絡的視覺SLAM閉環檢測方法。
背景技術
閉環檢測在計算機視覺領域常被稱為位置識別,對整個SLAM系統意義重大。閉環檢測的目的是識別機器人當前所處的位置是否是先前訪問過的位置。在移動機器人的定位和建圖中,通過相鄰幀間的圖像來估計軌跡并恢復空間結構,不可避免地存在累積漂移。閉環檢測通過正確檢測“機器人回到曾經位置”這件事情,可以顯著減少累積誤差,對構建一致的環境地圖非常重要。此外,閉環檢測由于關聯了歷史信息,當機器人由于突然運動、嚴重遮擋或運動模糊導致跟蹤失敗時,可以利用閉環檢測進行重新定位。因此,閉環檢測在提高整個SLAM系統地魯棒性和有效性方面發揮著至關重要的作用。
發明內容
本發明的目的是為了解決現有閉環檢測方法中相似性度量受限于特征提取難以提高檢測精度的問題,提出了一種基于端到端關系網絡的視覺SLAM閉環檢測方法。
本發明的技術方案是:一種基于端到端關系網絡的視覺SLAM閉環檢測方法,包括以下步驟:
S1:向VGG16網絡中輸入視覺傳感器采集的先前圖像和當前圖像;
S2:對先前圖像和當前圖像的原始數據進行預處理;
S3:通過VGG16網絡的5個卷積階段獲取預處理后的先前圖像和當前圖像的特征,得到多層特征;
S4:對先前圖像和當前圖像的多層特征進行加權融合;
S5:對先前圖像和當前圖像融合后的多層特征進行標準化,得到標準特征;
S6:對先前圖像和當前圖像標準化后的標準特征進行組合,得到組合圖像;
S7:通過CNN關系模塊回歸得到組合圖像的相似性得分,完成閉環檢測。
本發明的有益效果是:本發明提供了一種基于端到端關系網絡的視覺SLAM閉環檢測方法。與現有的基于深度學習的閉環檢測方法相比,本發明的加權融合來自不同中間層的不同尺度的特征,并可以自動學習其重要性。融合后的特征不僅保持了一定的不變性,而且包含更多的高層語義信息,更有效地克服感知偏差和感知變異,在統一的框架內將特征提取與相似性度量聯合起來,將原始圖片數據送入網絡可以直接從像素點度量兩個圖像的相似性,避免學習冗余特征,使得學習到的特征更加適應相似性度量要求的可區分性,可以更加準確地檢測閉環并節省檢測時間,提高閉環檢測地精度。
進一步地,步驟S2包括以下子步驟:
S21:調整先前圖像和當前圖像的尺寸為224×224;
S22:將調整大小后的先前圖像和當前圖像轉換為224×224×3的張量;
S23:對轉換張量后的先前圖像和當前圖像進行標準化操作,完成對先前圖像和當前圖像的原始數據預處理。
上述進一步方案的有益效果是:在本發明中,對先前圖像和當前圖像的原始數據進行預處理可滿足卷積神經網絡對輸入數據的尺度要求。
進一步地,步驟S23中,標準化操作的公式為其中,x代表圖像張量,μ代表圖像的均值,stddev代表圖像的標準方差。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學,未經電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010017054.4/2.html,轉載請聲明來源鉆瓜專利網。





