[發明專利]一種基于雙目視覺的高精度虛擬裝配系統算法有效
| 申請號: | 201410596344.3 | 申請日: | 2014-10-28 |
| 公開(公告)號: | CN104408760B | 公開(公告)日: | 2017-12-29 |
| 發明(設計)人: | 張立國;王鵬;金梅;蔣再毅 | 申請(專利權)人: | 燕山大學 |
| 主分類號: | G06T13/40 | 分類號: | G06T13/40;G06T13/80;G06F17/50 |
| 代理公司: | 秦皇島一誠知識產權事務所(普通合伙)13116 | 代理人: | 李合印 |
| 地址: | 066004 河北省*** | 國省代碼: | 河北;13 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 雙目 視覺 高精度 虛擬 裝配 系統 算法 | ||
1.一種基于雙目視覺的高精度虛擬裝配系統算法,其特征在于該算法內容如下:
通過Kinect傳感器采集用戶運動空間信息,包括上肢動作信息、手勢信息包括靜態手勢和動態手勢信息作為虛擬裝配系統的輸入信息,從而使用自然習慣動作完成虛擬裝配過程;
采用Kinect傳感器拍攝手部姿態的彩色圖像和對應的深度圖像信息作為輸入信息,通過膚色檢測結合深度信息,分割出手部圖像,得到觀察的模型;應用OpenGL建立手部模型,采用球體、圓柱體、橢球體和椎體四個基本圖元,建立一個用27個參數表征的具有26個自由度的3D手部模型;
將建立的模型與采集的手部圖像進行對比,計算得到模型與手部圖像的相似度,采用改進的粒子群優化算法,通過相異性計算公式E(h,O),估算出觀察對象與模型對象之間的相異程度,不斷優化手部模型的27個參數,使得相似度度量達到最大,最終得到采集圖像的手部模型,基于手部模型以及Kinect傳感器的標定信息,最終渲染得到深度圖像,實現對手勢的跟蹤識別,完成虛擬裝配系統的信息輸入,進而實現高精度虛擬裝配過程,
其中所述的相異性計算公式E(h,O)為:
E(h,O)=D(O,h,C)+λk·kc(h)
其中λk是一個標準化因數,C表示攝像機的校準信息,h代表模型對象,O代表觀察對象;函數D(O,h,C)表示為:
函數D(O,h,C)中的絕對值表示觀察對象與模型對象的箝位深度差,ε用來防止分母為零。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于燕山大學,未經燕山大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201410596344.3/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:電子簽到方法
- 下一篇:一種向駕駛場景視頻中添加霧霾效果的方法及系統





