[發明專利]一種基于深度攝像頭的障礙物檢測方法在審
| 申請號: | 201810767044.5 | 申請日: | 2018-07-13 |
| 公開(公告)號: | CN109272481A | 公開(公告)日: | 2019-01-25 |
| 發明(設計)人: | 郭健;危海明;宋愷 | 申請(專利權)人: | 南京理工大學 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06T7/80;G01S11/12 |
| 代理公司: | 南京理工大學專利中心 32203 | 代理人: | 孟睿 |
| 地址: | 210094 江*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 像素點 避障 實際物體 相機中心 障礙物 深度攝像頭 障礙物檢測 三維點云 深度圖像 相機 相機坐標系 橫向距離 深度距離 深度數據 實際位置 縱向距離 檢測面 漏檢率 遍歷 內參 采集 檢測 視野 | ||
本發明涉及一種基于深度攝像頭的障礙物檢測方法。采集深度圖像,根據相機內參和深度數據,獲得三維點云,即計算獲得深度圖像中所有像素點在相機坐標系中的實際位置(xc,yc,zc);其中,xc表示像素點對應實際物體點到相機中心的橫向距離,yc表示像素點對應實際物體點到相機中心的縱向距離,zc表示像素點對應實際物體點到相機中心的深度距離;設定最大避障閾值th,即當物體與相機之間的距離大于最大避障閾值th,則認為該物體不是障礙物;遍歷所有的三維點云,對于每一個像素點,如果其xc在避障視野(vl,vr)內,且其深度zc小于最大避障閾值th,則認為該像素點屬于障礙物。本發明檢測面大,并降低了漏檢率,從而提高了檢測障礙物的可靠性和準確性。
技術領域
本發明屬于機器人導航與控制技術領域,具體涉及一種基于深度攝像頭的障礙物檢測方法。
背景技術
在機器人導航和運動過程中,檢測和規避障礙物是實現機器人自主運動和智能化的重要環節。現有技術中一般采用傳感器進行避障檢測。避障傳感器包括紅外,超聲波和激光等。其中,紅外傳感器不受可見光影響,角度靈敏度高,價格低廉,但只能檢測單線障礙物信息;超聲波一般具有一定的波束角,可用于面檢測,但角度精度相應降低。此外,超聲波易受環境影響,不可檢測吸聲材料。激光與紅外類似,技術成熟,有更高的精度,但一般價格較高。因此,利用避障傳感器進行障礙物檢測,檢測面小,容易造成障礙物信息的漏檢,特別是對不同高度或者凳腳等較細的障礙物,難以檢測到,從而導致了避障決策的失效。
近年來,深度攝像頭的發展和普及為障礙物的檢測和規避帶來的新的思路。深度攝像頭可以檢測到物體的深度,即物體與相機之間的距離。基于測距原理的不同,其實現形式也多種多樣。目前深度攝像頭常用的測距原理包括:雙目匹配,一般結構光編碼和激光散斑編碼(Light coding)。Kinect,xtion等主流RGBD攝像頭即采用的激光散斑編碼技術。
雖然實現的原理和方式有所不同,但深度攝像頭最終處理得到的圖像均為深度圖像,即以相機視角得到了所攝物體距離相機的深度。因此,不同深度攝像頭均可等效的看做一種特殊的圖像攝像頭,并按照攝像機模型進行分析處理。基于這一模型,結合深度信息,即可得到物體在相機坐標系中的實際坐標,從而使得全面檢測障礙物信息成為可能。
發明內容
本發明的目的在于提供一種基于深度攝像頭的障礙物檢測方法,檢測面大,并降低了漏檢率,從而提高了檢測障礙物的可靠性和準確性,同時通過降維和離散處理,可以便捷地使用障礙物信息。
為了解決上述技術問題,本發明提供一種基于深度攝像頭的障礙物檢測方法,包括以下步驟:
步驟1、采集深度圖像,根據相機內參和深度數據,獲得三維點云,即計算獲得深度圖像中所有像素點在相機坐標系中的實際位置(xc,yc,zc);其中,xc表示像素點對應實際物體點到相機中心的橫向距離,yc表示像素點對應實際物體點到相機中心的縱向距離,zc表示像素點對應實際物體點到相機中心的深度距離;
步驟2、設定最大避障閾值th,即當物體與相機之間的距離大于最大避障閾值th,則認為該物體不是障礙物;遍歷所有的三維點云,對于每一個像素點,如果其xc在避障視野(vl,vr)內,且其深度zc小于最大避障閾值th,則認為該像素點屬于障礙物。
進一步,使用張正友標定法,對深度攝像頭進行標定,使用的棋盤為深度棋盤。
進一步,獲取三維點云的方法如下式所示,
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京理工大學,未經南京理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810767044.5/2.html,轉載請聲明來源鉆瓜專利網。





