[發明專利]一種基于深度學習的視覺里程計及里程方法有效
| 申請號: | 202010957285.3 | 申請日: | 2020-09-13 |
| 公開(公告)號: | CN112050828B | 公開(公告)日: | 2022-06-10 |
| 發明(設計)人: | 劉曉亮;徐順東;戴小燕 | 申請(專利權)人: | 常州沃翌智能科技有限公司 |
| 主分類號: | G01C22/00 | 分類號: | G01C22/00;G06K9/62;G06N20/20;G06V20/56;G06V10/774 |
| 代理公司: | 常州市瀚宇專利代理事務所(普通合伙) 32551 | 代理人: | 韓萃穎 |
| 地址: | 213000 江蘇省常州市武進國家高新技術*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 視覺 里程計 里程 方法 | ||
一種基于深度學習的視覺里程計及里程方法,本發明涉及軌道交通技術領域,它包含解碼模塊、圖像增強模塊、目標檢測模塊、方向測定模塊、目標預測模塊、數據變換模塊和數據整合模塊;解碼模塊與圖像增強模塊連接,圖像增強模塊與目標檢測模塊連接,目標檢測模塊分別與方向測定模塊和目標預測模塊連接,目標預測模塊與數據變換模塊連接,方向測定模塊以及數據變換模塊均與數據整合模塊連接。其能夠軌道交通隧道環境下穩定運行并實現較高精度的測量,將累計誤差縮小到規定值。
技術領域
本發明涉及軌道交通技術領域,具體涉及一種基于深度學習的視覺里程計及里程方法。
背景技術
軌道交通領域的里程計量通常依賴于對車輪旋轉的計數,由于車輪半徑存在機械誤差,且在運行時尤其是啟動、剎車和轉彎時出現車輪打滑及空轉現象,車輪計量里程的方式通常會帶來難以消除的累計誤差。視覺里程基于對現場環境的實際記錄,可以像人眼一樣觀察車輛行進的速度和方向,以確定實際里程位置,幾乎不產生累計誤差。
視覺里程技術廣泛應用于自動駕駛、環境感知及地圖測繪等領域。常用的視覺里程方法通常包括對特征點的識別、篩選、及分析比對。其缺點是對場景的要求較高,需要場景具有較多可被識別的特征點信息。然而對于一些光線較為昏暗,環境特征信息量較小,場景重復性強的環境,如軌道交通隧道中,前后幀中的特征極為相似,難以進行特征點的匹配。
發明內容
本發明的目的在于針對現有技術的缺陷和不足,提供一種設計合理的基于深度學習的視覺里程計及里程方法,其能夠軌道交通隧道環境下穩定運行并實現較高精度的測量,將累計誤差縮小到規定值。
為達到上述目的,本發明所述的一種基于深度學習的視覺里程計:它包含解碼模塊、圖像增強模塊、目標檢測模塊、方向測定模塊、目標預測模塊、數據變換模塊和數據整合模塊;解碼模塊與圖像增強模塊連接,圖像增強模塊與目標檢測模塊連接,目標檢測模塊分別與方向測定模塊和目標預測模塊連接,目標預測模塊與數據變換模塊連接,方向測定模塊以及數據變換模塊均與數據整合模塊連接。
本發明所述的一種基于深度學習的視覺里程方法,它的步驟如下:
步驟一、將含有時間信息的視頻流利用解碼模塊解碼為帶有時間戳的圖片流;
步驟二、利用圖像增強模塊對解碼后的帶有時間戳的圖片流進行圖像增強;
步驟三、利用目標檢測模塊對增強后的帶有時間戳的圖片流進行目標檢測;
步驟四、利用方向測定模塊對目標檢測后的結果進行分析,并測定方向;
步驟五、利用目標預測模塊對目標檢測的結果進行分析,并對未檢測出的目標進行預測;
步驟六、利用數據變換模塊對檢測與預測目標進行分析,經過數據變換,得到里程信息;
步驟七、利用數據整合模塊將步驟四和步驟六中的方向和里程信息進行整合。
進一步地,所述的圖像增強模塊基于深度學習針對軌道交通系統隧道環境進行訓練,并根據實際隧道環境對圖片進行亮度及對比度調整,以提高軌枕和道釘等標志物與周圍環境之間的對比度,同時對里程標和標志牌熒光產生的過曝進行優化,以便于對其上噴涂內容的識別。
進一步地,所述的目標檢測模塊基于深度學習進行對軌枕、道釘、里程標、標志牌以及配電箱等標志物進行目標檢測。
進一步地,所述的方向測定模塊定位方向的方向標志物包括里程標、標志牌以及配電箱,在多幀間動態查找相關聯的方向標志物,并對其進行位置信息比對以確保方向定位的實時準確性。
進一步地,所述的目標預測模塊在單幀圖像中,對左右道釘進行對照,對未檢出的單側道釘和軌枕進行預測。
進一步地,所述的目標預測模塊在單幀圖像中,對前后軌枕進行對照,根據幾何關系變換,對未檢出的軌枕進行預測。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于常州沃翌智能科技有限公司,未經常州沃翌智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010957285.3/2.html,轉載請聲明來源鉆瓜專利網。





