[發明專利]一種應用于三維工件模型分類的多層感知神經網絡方法在審
| 申請號: | 201810761938.3 | 申請日: | 2018-07-11 |
| 公開(公告)號: | CN108960168A | 公開(公告)日: | 2018-12-07 |
| 發明(設計)人: | 宋麗梅;茹愿;郭慶華 | 申請(專利權)人: | 天津工業大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06N3/04;G06N3/08 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 300387 *** | 國省代碼: | 天津;12 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 多層感知神經網絡 三維工件 模型分類 應用 人工智能領域 分類結果 機器視覺 人工分類 人力成本 有效地 測試 消耗 分類 緩解 | ||
本發明屬于機器視覺和人工智能領域,涉及一種應用于三維工件模型分類的多層感知神經網絡方法。該方法通過多層感知神經網絡對三維工件模型進行訓練,建立應用于三維工件模型分類識別的多層感知神經網絡。經過測試選取識別效果最佳的多層感知神經網絡模型,利用識別效果最佳的多層感知神經網絡模型對三維工件模型進行識別,得到分類結果。本發明設計的多層感知神經網絡,可以有效地緩解由于人工分類所造成的分類錯誤以及三維工件模型分類所消耗的大量人力成本。
技術領域
本發明涉及一種應用于三維工件模型分類的多層感知神經網絡方法。更具體的說,本發明涉及一種能夠對三維工件模型進行自動分類的多層感知神經網絡方法。
背景技術
目前,深度學習在自然語言與圖像處理領域的表現,顯示出深度學習有著極強的應用前景。但是深度學習在三維模型領域的應用研究仍處于起步階段,急需突破。Hilaga等人采用了測地線距離(Geodesic Distance)函數構建多分辨率Reeb圖(MRG,Multiresolutional Reeb Graph)的方式,實現對模型的表征及相似性評價。雖然測地線距離能很好的描述三維模型拓撲結構,即提取的特征對模型的形變具有無關性。但是對于閾值的選擇有著嚴格的要求,很小的變化就會產生完全不同的拓撲結構。Osada等構造了5種幾何函數,這5種函數獲得的是模型表面幾何屬性的一組概率分布。將這些概率分布表征為直方圖的形式,計算兩模型的直方圖的距離來判斷它們之間的相似度,最后經過試驗,D2函數對檢索的效果最佳。KZaharia等人提出SSD(Shape Spectrum Description)三維模型局部特征描述法。此方法由三維模型表面的一些局部屬性提供了模型內部的形狀索引來描述(Shape Index,SI),模型表面某個頂點的兩個曲率函數被定義為形狀索引,此局部特征描述就是形狀索引在整個三維模型網格上的分布。使用此方法提取出來的特征描述符對三維模型的拓撲結構敏感,通用性較差。Min等人用最簡單的提取三視圖的方法,從模型三個固定的方向獲取了正視圖、俯視圖、側視圖,然后對這些二維輪廓特征圖進行相似性比較。此類簡單視圖對于模型本身的拓撲等空間信息不能表達,最后的檢索性能并不能取得足夠的滿意度。Wu等人提出了一種3D深度模型,可以很好地表示三維物體特征,該算法能夠在一定程度上解決三維物體特征提取難的問題。深度學習在一維和二維領域已經取得了較大的突破,但深度學習在三維模型領域的應用研究仍有許多問題有待探究。為了實現三維工件模型的自動分類,本發明基于多層感知神經網絡的方法,設計了一種新的基于多層感知神經網絡的三維工件模型分類方法。
發明內容
本發明提供一種基于多層感知神經網絡的三維工件模型分類方法。該方法能夠應用于三維制造和設計領域,完成三維工件模型自動快速地識別分類。
所述的三維工件模型分類方法的硬件系統主要包括用于數據采集、數據訓練、模型訓練、模型測試以及分類識別效果驗證的高性能計算機;
本發明所設計的多層感知神經網絡方法,其特征是:對三維工件模型進行識別分類,步驟如下:
步驟1:選取含有N類三維工件模型的數據集,所述的三維工件模型數據集包含訓練三維工件模型X個,測試三維工件模型Y個,將所述數據集的三維工件模型的大小和格式統一設置為包含2048個點的三維點云數據;
步驟2:多層感知神經網絡模型的第一層為輸入層,其參數I1=a1×b1,設置a1=2048,b1=3;
步驟3:步驟2中所述的多層感知神經網絡模型的第二層為多層感知器,其參數M1=a2×b2,設置a2=64,b2=64;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于天津工業大學,未經天津工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810761938.3/2.html,轉載請聲明來源鉆瓜專利網。





