[發明專利]一種基于卷積受限玻爾茲曼機的點云配準方法在審
| 申請號: | 201910765214.0 | 申請日: | 2019-08-19 |
| 公開(公告)號: | CN110490915A | 公開(公告)日: | 2019-11-22 |
| 發明(設計)人: | 屈劍鋒;吳冬冬;李豪;房曉宇;曹珊珊 | 申請(專利權)人: | 重慶大學 |
| 主分類號: | G06T7/33 | 分類號: | G06T7/33;G06N3/04;G06N3/08 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 400044 *** | 國省代碼: | 重慶;50 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 受限玻爾茲曼機 點云圖像 特征向量 卷積 預處理 點云圖像數據 卷積神經網絡 卷積計算 權值矩陣 訓練模型 可見層 最優化 點云 構建 魯棒 配準 偏置 位姿 向量 推算 掃描 網絡 | ||
本發明公開了一種基于卷積受限玻爾茲曼機的點云配準方法。可以識別出物體多角度的點云圖像,獲取物體的位姿。包括以下步驟:首先獲取待識別物體的各基本角度進行掃描,得到其點云圖像數據并進行預處理;然后運用卷積神經網絡對其進行卷積計算,得到較為魯棒的節點;再構建受限玻爾茲曼機訓練模型,確定模型的各參數,把卷積網絡得到的結果輸入模型中進行訓練,得到受限玻爾茲曼機最優化的偏置向量a,b以及權值矩陣W。再根據這些參數進行逆向推算,得到可見層,其中評分最高的特征向量即為該點云圖像最可能對應的物體的特征向量,從而實現對物體的識別。
技術領域
本發明屬于三維立體圖像識別領域,涉及一種基于卷積受限玻爾茲曼機的點云配準方法。
背景技術
在一些環境較為惡劣或者較為復雜的情況下,對場景中的物體進行識別是計算機視覺一個非常重要的研究方面。自計算機視覺出現以來,對二維圖像的識別已經迅速發展,在很多領域得以重要的應用,也取得了極其顯著的成果。然而,相對于二維平面圖像識別,三維立體圖像的識別可以更加全面、更加準確的實現物體的識別與定位,甚至對物體的姿態作出判斷。3D點云作為三維立體圖像的重要表示方式,3D點云的立體圖像識別技術在近幾年得到快速的發展,應用在包括無人駕駛、數字城市、鋼鐵重工等眾多前沿領域,為圖像的加速發展提供了重要技術支持。
然而,目前用于三維立體圖像識別的3D點云配準的方法主要還是停留在同一視角的情況下進行物體的識別,無法多角度實現對物體的識別。對于一些外形較為復雜的物體的來說,如果其位姿發生變化或者點云掃描儀的掃描視角法發生變化,那么對物體的準確識別就難以實現。
目前,也有一些多角度點云配準的方法。如根據曲率和點的鄰域相似度進行配準;根據曲率和幾何哈希進行配準;利用離散特征進行配準等眾多方法。但是這些傳統方法都是通過轉換點云圖像的角度以及提取點云圖像的局部特征來進行的,難以實現具有很好地魯棒性,因此在配準的精度和速度上均有所欠缺。基于卷積受限玻爾茲曼機的點云配準方法克服了這些缺點,可以在較小角度轉換點云圖像角度的情況下,通過深度學習算法,快速實現對物體的準確識別。
發明內容
鑒于此,本發明的目的在于提供一種實現多角度的點云的配準方法。通過受限玻爾茲曼機對點云數據庫進行訓練,得到每一個點云圖像的個體特征向量,然后再將待檢測點云圖像與訓練完成的數據集進行匹配,即可實現對待檢測點云的識別。
為達到上述目的,本發明的技術方案提供一種基于卷積受限玻爾茲曼機的點云配準方法,該方法包括以下步驟:
1)首先,獲取多個待識別物體的多角度視圖(以三視圖為主的各角度的視圖),構成點云數據集,并對該數據集進行預處理(分割、濾波、下采樣等),得到處理后的點云數據集,作為系統原始數據。
2)把1)中得到系統原始數據輸入到卷積神經網絡中,確定卷積層的各參數,經過卷積計算的處理,得到較為魯棒的節點數據集。
3)建立RBM(受限玻爾茲曼機)模型,把2)中得到的點云圖像特征向量節點數據集作為訓練樣本集,再初始化受限玻爾茲曼機的隱藏層和可見層的偏置向量以及隱藏層和可見層之間的權值矩陣,運用對比散度(Contrastive Divergence,CD)算法進行RBM的訓練,多次迭代,得到最優化的偏置向量a,b以及權值矩陣W。
4)把1)中所用到的任意待識別物體的任意角度的點云圖像進行卷積層特征提取,作為受限玻爾茲曼機的隱藏層進行檢測識別,通過3)中所得到的最優化的偏置向量a,b以及權值矩陣W進行逆向運算,得到可見層,其中評分最高者即為該點云圖像所對應的物體,從而實現對物體的識別。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于重慶大學,未經重慶大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910765214.0/2.html,轉載請聲明來源鉆瓜專利網。





