[發明專利]基于條件變分自編碼器和幾何引導的場景深度補全方法有效
| 申請號: | 202310422520.0 | 申請日: | 2023-04-20 |
| 公開(公告)號: | CN116468768B | 公開(公告)日: | 2023-10-17 |
| 發明(設計)人: | 魏明強;吳鵬;燕雪峰 | 申請(專利權)人: | 南京航空航天大學 |
| 主分類號: | G06T7/521 | 分類號: | G06T7/521;G06N3/0455;G06N3/0464;G06F18/25;G01S17/86;G01S17/89;G01B11/24 |
| 代理公司: | 南京有岸知識產權代理事務所(特殊普通合伙) 32757 | 代理人: | 王磊 |
| 地址: | 211100 江*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 條件 編碼器 幾何 引導 場景 深度 方法 | ||
1.基于條件變分自編碼器和幾何引導的場景深度補全方法,其特征在于,包括以下步驟:
獲取自動駕駛場景下的彩色圖像,稀疏深度圖以及稠密深度圖;
設計具有先驗網絡和后驗網絡的條件變分自編碼器,將彩色圖像和稀疏深度圖輸入到先驗網絡中提取特征,再將彩色圖像、稀疏深度圖和稠密深度圖輸入到后驗網絡中提取特征;
利用相機內參或焦距將稀疏深度圖轉換成點云,再將點云上采樣模型提取到幾何空間特征,并映射回稀疏深度圖上;
采用動態圖消息傳播模塊實現圖像特征和點云特征的融合;
利用基于殘差網絡的U形編碼解碼器生成初步的深度補全圖;
將初步預測的補全深度圖輸入到置信度不確定性估計模塊,實現最終的深度補全優化。
2.根據權利要求1所述的基于條件變分自編碼器和幾何引導的場景深度補全方法,其特征在于,所述獲取自動駕駛場景下的彩色圖像和稀疏深度圖,包括:
使用彩色相機和激光雷達捕獲自動駕駛場景下的彩色圖像和稀疏深度圖;
利用Sparsity?Invariant?CNNs算法將稀疏深度圖變成稠密深度圖作為真實標簽輔助訓練。
3.根據權利要求2所述的基于條件變分自編碼器和幾何引導的場景深度補全方法,其特征在于,所述設計具有先驗網絡和后驗網絡的條件變分自編碼器,將彩色圖像和稀疏深度圖輸入到先驗網絡中提取特征,再將彩色圖像、稀疏深度圖和稠密深度圖輸入到后驗網絡中提取特征,包括:
基于ResNet結構的特征提取模塊,設計具有相同結構的先驗網絡和后驗網絡作為條件變分自編碼器;
將彩色圖像和稀疏深度圖輸入先驗網絡提取最后一層的特征圖Prior,同時,將彩色圖像、稀疏深度圖和真實標簽輸入后驗網絡提取最后一層的特征圖Posterior,然后分別計算Prior和Posterior特征圖的均值和方差,得到各自的特征的概率分布D1和D2,再使用Kullback-Leibler散度損失函數監督分布D1和D2之間的損失,使先驗網絡能夠學習到后驗網絡的真實標簽特征。
4.根據權利要求3所述的基于條件變分自編碼器和幾何引導的場景深度補全方法,其特征在于,所述利用相機內參或焦距將稀疏深度圖轉換成點云,再將點云上采樣模型提取到幾何空間特征,并映射回稀疏深度圖上,包括:
根據相機內參將稀疏深度圖像像素點(ui,vi)由像素坐標系轉換到相機坐標系得到三維場景的點云坐標(xi,yi,zi),形成稀疏點云數據S;
其中,(cx,cy)為相機的光心坐標,fx,fy分別為相機在x軸和y軸方向的焦距,di為(ui,vi)處的深度值,對于真實標簽深度圖,也采用上述公式生成稠密標簽點云S1;
通過對點云S進行多次隨機采樣,獲得不同數量的點云集合,針對每個點云集合,利用KNN最鄰近節點算法聚合每個點周圍的16個最近點,輸入到幾何感知神經網絡中提取該點的局部幾何特征;
將每個點提取到的稀疏點云特征與原始點云坐標(xi,yi,zi)相加得到點云編碼特征Q,將Q輸入到四倍上采樣的多層感知機網絡中得到預測的稠密點云S2,利用ChamferDistance損失函數計算真實稠密點云S1和預測的稠密點云S2之間的損失值,以此監督網絡的訓練,CD損失具體的計算公式如下:
其中,第一項表示S1中任意一點x到S2的最小距離之和,第二項表示S2中任意一點y到S1的最小距離之和。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京航空航天大學,未經南京航空航天大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202310422520.0/1.html,轉載請聲明來源鉆瓜專利網。





