[發明專利]基于生成式對抗網絡的統一場景視覺定位方法有效
| 申請號: | 202010517260.1 | 申請日: | 2020-06-09 |
| 公開(公告)號: | CN111724443B | 公開(公告)日: | 2022-11-08 |
| 發明(設計)人: | 高偉;韓勝;吳毅紅 | 申請(專利權)人: | 中國科學院自動化研究所 |
| 主分類號: | G06T7/73 | 分類號: | G06T7/73;G06T7/80;G06T7/33;G06T7/174;G06T3/40;G06N3/04;G06N3/08 |
| 代理公司: | 北京市恒有知識產權代理事務所(普通合伙) 11576 | 代理人: | 郭文浩;尹文會 |
| 地址: | 100190 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 生成 對抗 網絡 統一 場景 視覺 定位 方法 | ||
1.一種基于生成式對抗網絡的統一場景視覺定位方法,其特征在于,該方法包括:
步驟S100,獲取查詢圖像,并通過語義分割網絡對該查詢圖像進行語義分割,得到語義標簽圖;
步驟S200,將所述語義標簽圖與所述查詢圖像拼接,并通過預訓練的生成式對抗網絡的生成器進行翻譯,將翻譯后的圖像作為第一圖像;
步驟S300,提取所述第一圖像的全局描述子、二維局部特征;將所述第一圖像的全局描述子分別與預設的圖像庫中的各圖像的全局描述子進行匹配,得到候選圖像;所述圖像庫為查詢圖像對應場景的圖像經過語義分割、生成器翻譯后存儲的數據庫;
步驟S400,獲取候選圖像對應預構建的三維模型;將二維局部特征與所述三維模型中候選圖像確定范圍內的三維點云進行匹配,得到二維-三維匹配點對;
步驟S500,基于各二維-三維匹配點對,通過PnP-RANSAC框架計算所述查詢圖像對應的6自由度相機位姿;
所述生成式對抗網絡其在訓練的過程中采用雙向重建損失、循環一致性損失、對抗性損失進行優化;所述雙向重建損失包括L1損失、MS-SSIM損失;
所述生成式對抗網絡其訓練方法為:
獲取訓練樣本集;所述訓練樣本集包括查詢圖像、數據庫圖像;所述數據庫圖像為查詢圖像對應場景的圖像;
對所述查詢圖像、所述數據庫圖像,分別通過語義分割網絡對其進行語義分割,并與其本身進行拼接;將拼接后的查詢圖像作為第二圖像,將拼接后的數據庫圖像作為第三圖像;
通過生成式對抗網絡的生成器將第二圖像、第三圖像分別分解為內容編碼、風格編碼;
將第二圖像的風格編碼、內容編碼與第三圖像的風格編碼、內容編碼進行重組后解碼;基于解碼后的圖像,通過生成式對抗網絡的判別器獲取其對應的損失值,并對網絡參數進行更新。
2.根據權利要求1所述的基于生成式對抗網絡的統一場景視覺定位方法,其特征在于,所述生成式對抗網絡其損失值的計算方法為:
其中,EA是XA域的編碼器,EB是XB域的編碼器,GA是XA域的解碼器,GB是XB域的解碼器,DA是試圖區分XA中翻譯圖像和真實圖像的判別器,DB是試圖區分XB中翻譯圖像和真實圖像的判別器,表示網絡在XA域的對抗性損失值,表示網絡在XB域的對抗性損失值,Lcyc表示將XA、XB域中的圖像分別翻譯到對方域,再翻譯回原域后,翻譯圖像相對于原圖像的重建損失值,表示XA域中的圖像xA經編碼-解碼操作后相對于原圖像的重建損失值,表示XB域中的圖像xB經編碼-解碼操作后相對于原圖像的重建損失值,表示XA域中的內容編碼cA經解碼-編碼操作后相對于原內容編碼的重建損失值,表示XB域中的內容編碼cB經解碼-編碼操作后相對于原內容編碼的重建損失值,表示XA域中的風格編碼sA經解碼-編碼操作后相對于原風格編碼的重建損失值,表示XB域中的風格編碼sB經解碼-編碼操作后相對于原風格編碼的重建損失值,λcyc、λx、λc、λs分別表示各損失函數對應的權重,XA表示查詢圖像在生成器中對應的場景,XB表示數據庫圖像在生成器中對應的場景。
3.根據權利要求1所述的基于生成式對抗網絡的統一場景視覺定位方法,其特征在于,所述二維局部特征其通過Superpoint提取。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國科學院自動化研究所,未經中國科學院自動化研究所許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010517260.1/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種遠紅外負壓真空罐
- 下一篇:一種用于水冷卻系統的補水裝置及其補水方法





