在審
| 申請號: | 201810224403.2 | 申請日: | 2018-03-19 |
| 公開(公告)號: | CN108389260A | 公開(公告)日: | 2018-08-10 |
| 發明(設計)人: | 陳亮;劉澤森;金尚忠;楊凱;石巖;鄒細勇;張淑琴 | 申請(專利權)人: | 中國計量大學 |
| 主分類號: | G06T17/20 | 分類號: | G06T17/20;G06T7/521 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 310018 浙江省杭*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 傳感器 三維重建 點云 深度圖像信息 旋轉不變性 獲取目標 深度圖像 雙邊濾波 不變性 傳統的 特征點 降噪 配準 尺度 分割 科研 應用 改進 | ||
本發明的目的在于提供一種基于Kinect傳感器進行物體的三維重建的方法,其特征在于:通過Kinect傳感器來獲取目標物體的深度圖像信息,采用背景差分點云分割和雙邊濾波的方法對得到的深度圖像進行降噪等處理,最后使用具有尺度不變性和旋轉不變性的SURF算法來提取RGB圖像的特征點,并改進傳統的ICP算法最大限度提高點云配準的速度和質量。本方法在科研及工業生產上具有很大的應用前景。
技術領域
本發明涉及一種利用Kinect傳感器獲取深度圖像,通過對深度圖像濾波、目標圖像三維點云獲取、點云配準等,完成對目標圖像的三維重建技術。本發明屬于計算機視覺領域。
背景技術
物體三維重建一直是計算機視覺領域最熱門的研究方向之一,是機器視覺、圖像處理和模式識別等多學科交叉的研究領域,在理論和實際應用中有著舉足輕重的意義。物體三維重建是研究如何獲取物體在空間中的三維信息并將其信息以適合人眼觀察或儀器處理的形式表達?,F階段,物體三維重建技術在多方面得到應用,特別是在科研、考古及工業生產設計等專業領域。目前,物體三維重建的關鍵點和難點是:如何獲取物體的三維數據,在世界坐標系下計算機處理的三維數據中如何與物體實際相對應;在獲取物體的三維數據的過程中,如何對由于設備本身以及外界環境因素所產生的噪音進行濾除;以及如何在確保物體三維重建的精確度的條件下,加快重建的速度。
隨著Kinect傳感器的發展,Kinect傳感器先進的深度圖像獲取能力有助于三維重建技術的發展與提高。Kinect傳感器主要由深度攝像機和RGB攝像機來獲取外界的三維信息。深度攝像機由紅外投影機和紅外深度攝像機構成。紅外投影機主要用于向外界發射均勻的紅外線,并在目標上形成紅外散斑圖像;目標反射得到的散斑圖像信息由紅外深度攝像機接收,最后得到目標的深度圖像。RGB攝像機主要獲取實驗環境或實驗物體的RGB圖像信息。Kinect傳感器的深度攝像機快速獲取物體的深度圖像,數據量豐富,實時性好,精確度較高,在科研及工業生產上得到廣泛應用。
發明內容
本發明針對現有物體三維重建技術的不足,提出一種基于Kinect傳感器獲取物體彩色和深度圖像,通過對深度圖像濾波并采用點云分割提取目標區域圖像,最后提取物體RGB圖像特征點利用改進ICP算法對點云圖像拼接,從而完成物體三維重建的技術。
進一步的,所述Kinect傳感器獲取物體深度圖像是由紅外投影機向外界發射均勻的紅外線,在物體表面形成紅外散斑,物體反射得到的散斑圖像信息由紅外深度攝像機接收,最后得到目標的深度圖像。
進一步的,所述對深度圖像濾波并進行點云分割是為了獲得更為精確的三維點云數據。深度數據不可避免都會有噪音存在,而使用雙邊濾波的方法可以在濾除噪聲的同時,保留深度圖像的邊緣信息,不對深度圖像的輪廓產生畸變。
采用的點云分割是背景差分法,通過去除被實驗物體得到實驗背景的深度圖像,以深度圖像中各像素點的平均值來建立背景模型。同時設深度圖像與背景模型同一像素點的差值為D(x,y),閾值為M,則背景差分表達式為:
進一步的,所述提取物體RGB圖像特征點是采用具有尺度不變性和旋轉不變性的SURF特征檢測方法,提取兩幅或多幅不同角度下的物體RGB圖像的特征點,實現RGB圖像的配準。
進一步的,所述改進ICP點云配準是在傳統ICP算法基礎上,將深度圖像點云劃分成盒子結構并編序。在源數據點集P提取的特征點中選不共線三點Pa、Pb、Pc構建三角形,再找到Pa、Pb在目標點集Q中的最近點Qd、Qe,利用三角形相似找到Pc對應點Qf。重復上述操作直到所有源數據點云與目標數據點云的對應點對關系都被確定。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國計量大學,未經中國計量大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810224403.2/2.html,轉載請聲明來源鉆瓜專利網。





