[發明專利]一種智慧城市傳感器地形定位建圖方法在審
| 申請號: | 202210661748.0 | 申請日: | 2022-06-12 |
| 公開(公告)號: | CN114998539A | 公開(公告)日: | 2022-09-02 |
| 發明(設計)人: | 不公告發明人 | 申請(專利權)人: | 哈爾濱工程大學 |
| 主分類號: | G06T17/05 | 分類號: | G06T17/05;G06N3/08;G06F16/2455;G06F16/29 |
| 代理公司: | 北京創智合源知識產權代理事務所(普通合伙) 16092 | 代理人: | 馬金華 |
| 地址: | 150001 黑龍江省*** | 國省代碼: | 黑龍江;23 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 智慧 城市 傳感器 地形 定位 方法 | ||
本發明屬于三維定位重構技術領域,具體涉及一種智慧城市傳感器地形定位建圖方法。包括將傳感器執行探測任務的區域劃分為A個子任務區域;對所設定的任務區域進行全覆蓋路徑規劃;傳感器在子任務區域內執行探測任務,獲取探測目標的位置信息、姿態信息;以傳感器的隨體坐標系為基準將探測數據轉換為三維點云,通過坐標變換得到大地坐標系的城市地形數據等。本發明不需要物理場數據庫的支持,通過研究傳感器定向算法,能夠在智慧城市復雜非結構化的環境中完成自主同步定位,該同步定位模式隱蔽性高,魯棒性強,且通過主動對地形進行有目的性地回溯,從而使得傳感器能夠更有效的在不依賴載體的情況下獲得高精度的位置信息和城市地形圖。
技術領域
本發明屬于三維定位重構技術領域,具體涉及一種智慧城市傳感器地形定位建圖方法。
背景技術
多視圖三維重構的關鍵在于從拍攝的眾多圖像中恢復出其圖像序列,從而重構出對象或者場景的立體結構信息,呈現出立體結構模型。三維重構利用了圖像上豐富的視覺信息,如輪廓、亮度、明暗度、紋理、特征點等,結合攝像機鏡頭的內外參數,進行光學投影變換的逆向變換處理,恢復出對象或場景的立體結構模型。地物精密的立體模型在“數字城市”盛行的當代有著不可替代的作用,另外,一些有價值的古老建筑正面臨毀壞邊緣,一旦損毀將難以重構,而地物的精密立體模型在古老建筑的保護方面起著不可重要作用。因此,研發地物精密立體重構方法有著極其重要的意義和巨大的實用價值。現有技術出現了同步定位建圖技術,但只運用在移動機器人領域,且不夠成熟,移動設備自身誤差和觀測噪聲的影響加上處于未知環境下,使得同步定位建圖系統中,存在著大量不確定性因素,現有技術同步定位建圖的運用存在較大的局限性,更沒有用同步定位建圖技術來實現對地面圖像的重構,不能通過立體建模人機交互的方式得到地物的精密模型,現有技術的方法不夠簡單流暢,邏輯清晰度差,可行性和魯棒性不好。
發明內容
本發明的目的在于提供一種智慧城市傳感器地形定位建圖方法。
本發明的目的是這樣實現的:
一種智慧城市傳感器地形探測數據壓縮存儲方法,包括以下步驟:
(1)將傳感器執行探測任務的區域劃分為A個子任務區域;對所設定的任務區域進行全覆蓋路徑規劃;
(2)傳感器在子任務區域內執行探測任務,獲取探測目標的位置信息、姿態信息;
(3)以傳感器的隨體坐標系為基準將探測數據轉換為三維點云,通過坐標變換得到大地坐標系的城市地形數據;
(4)將步驟(2)中的位置信息、姿態信息數據放入緩存池中,判斷緩存池中數據測線的數量是否達到預設規模;若未達到,則返回步驟(2)繼續獲取當前子任務區域的數據;否則,則執行步驟(5);
(5)計算緩存池中的地形數據熵值,判斷是否達到輸出閾值;若數據熵值超出輸出閾值,則執行步驟(6);否則,返回步驟(2)繼續獲取當前子任務區域的數據;
(6)調取緩存池中的數據,并輸入到構建的人工神經網絡中進行回歸訓練,當參數收斂后,輸出所得的神經網絡模型參數;
(7)存儲訓練得到的人工神經網絡模型參數來代替原始的點云數據,實現對地形數據的壓縮存儲;
(8)若未完成對全部子任務區域的探測任務,則返回步驟(2)執行未完成探測的子任務區域的探測;當需要獲取某一位置探測數據時,根據該位置所屬的子任務區域獲取對應的人工神經網絡模型參數,將該位置的橫縱坐標輸入到對應的人工神經網絡模型中,得到地形參數并執行步驟(9);
(9)執行傳感器同步定位與地圖繪制,并構建軌跡地圖Mapt;
(10)根據軌跡地圖確定候選回環目標和候選探索目標;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于哈爾濱工程大學,未經哈爾濱工程大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210661748.0/2.html,轉載請聲明來源鉆瓜專利網。





