[發明專利]一種多深度相機聯合獲取高精度深度圖的方法有效
| 申請號: | 202011422529.4 | 申請日: | 2020-12-08 |
| 公開(公告)號: | CN112258591B | 公開(公告)日: | 2021-03-30 |
| 發明(設計)人: | 姜峰;顧建軍;鐘心亮;朱世強;李特 | 申請(專利權)人: | 之江實驗室 |
| 主分類號: | G06T7/80 | 分類號: | G06T7/80 |
| 代理公司: | 杭州求是專利事務所有限公司 33200 | 代理人: | 邱啟旺 |
| 地址: | 310023 浙江省杭州市余*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 深度 相機 聯合 獲取 高精度 方法 | ||
本發明公開了一種多深度相機聯合獲取高精度深度圖的方法,該方法通過使用高精度深度相機對若干低精度深度相機進行同時采集,利用兩種相機重合部分對使用雙邊濾波器及高斯濾波器對低精度深度相機進行在線補償,同時實時標定雙邊濾波器和高斯濾波器的參數,從而能夠獲取更高精度的深度圖像。本發明的方法能夠獲得多幅高質量深度圖像,降低了獲取高精度深度圖像的整體成本,其實現方法簡便,手段靈活,深度圖像質量顯著提升,且與硬件具體型號及應用場景無關。
技術領域
本發明為深度相機補償和標定技術領域,具體地涉及一種多深度相機聯合獲取高精度深度圖的方法。
背景技術
深度相機又稱之為3D相機,可以通過該相機檢測出拍攝空間的景深距離。能準確知道圖像中每個點離攝像頭距離,這樣加上該點在2D圖像中的(x,y)坐標,就能獲取圖像中每個點的三維空間坐標。通過三維坐標就能還原真實場景,實現場景建模等應用,目前已應用于許多場景,如機器人,自動駕駛等。
主流的深度相機方案有三種:結構光(代表為微軟Kinect1,英特爾RealSense)、雙目視覺(代表為Leap Motion,MYNT AI)和TOF(光飛行時間法,代表為微軟Kinect2)。結構光(散斑)的優點主要有:方案成熟,資源消耗較低,使用主動光源,在一定范圍內精度高,分辨率高;TOF的優點主要有:檢測距離遠,受環境光干擾比較?。浑p目相機的主要優點有:硬件要求低,室內外都適用。從整體性能來看,結構光和TOF原理的深度相機精度較高且穩定性較好,但是成本相對雙目來說要高許多。目前各種深度成像方式逐漸趨于成熟,并且成像精度及穩定性與硬件成本成正相關。而當前市場對深度相機需求較大,對成本相對敏感,一個急需解決的問題就是如何提高低成本深度相機的精度。
發明內容
針對現有技術存在的問題,本發明提供了一種多深度相機聯合獲取高精度深度圖的方法。
為實現此目的,本發明采用如下技術方案:一種多深度相機聯合獲取高精度深度圖的方法,包括以下步驟:
步驟一:在移動平臺邊緣的中間位置,固定一臺高精度深度相機,所述高精度深度相機的視場角平視前方且無遮擋;
步驟二:在所述高精度深度相機周圍安裝低精度深度相機,所述低精度深度相機的數量為1~10,且所述低精度深度相機的視場角內無遮擋;
步驟三:隨后對所述高精度深度相機和每個低精度深度相機進行外參標定,標定出每個低精度深度相機和高精度深度相機的重合區域深度圖圖像;
步驟四:在室內場景中移動移動平臺,采集所述高精度深度相機與每個低精度深度相機的深度圖數據,將所述高精度深度相機的深度圖數據作為真實數據,將每個低精度深度相機的深度圖數據使用高斯濾波和雙邊濾波進行動態補償和動態標定;最后,每個低精度深度相機輸出更高精度的深度圖圖像。
進一步地,所述低精度深度相機分別位于高精度深度相機的豎直及水平方向,每個低精度深度相機與高精度深度相機的成像焦點均位于同一豎直面,且每個低精度深度相機與高精度深度相機的成像焦點距離為15~20cm。
進一步地,步驟四通過以下子步驟來實現:
(4.1)在室內場景下緩慢移動移動平臺,并實時采集高精度深度相機和每個低精度深度相機的深度圖數據,所述深度圖數據包括高精度深度相機某一幀深度圖圖像、每個低精度深度相機的某一幀深度圖圖像、包含高精度深度相機某一幀深度圖圖像的重合區域深度圖圖像,包含某個低精度深度相機的某一幀深度圖圖像的重合區域深度圖圖像;
(4.2)針對包含某個低精度深度相機的某一幀深度圖圖像的重合區域深度圖圖像先后使用高斯濾波和雙邊濾波,選取10~20組不同值的參數,根據不同參數搭配,生成濾波后的圖片,每組參數包括高斯濾波參數和雙邊濾波參數;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于之江實驗室,未經之江實驗室許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011422529.4/2.html,轉載請聲明來源鉆瓜專利網。





