[發明專利]一種基于Kinect的三維空間交互方法在審
| 申請號: | 202010763675.7 | 申請日: | 2020-07-31 |
| 公開(公告)號: | CN111913577A | 公開(公告)日: | 2020-11-10 |
| 發明(設計)人: | 程琪;李強生 | 申請(專利權)人: | 武漢木子弓數字科技有限公司 |
| 主分類號: | G06F3/01 | 分類號: | G06F3/01 |
| 代理公司: | 武漢藍寶石專利代理事務所(特殊普通合伙) 42242 | 代理人: | 嚴超 |
| 地址: | 430000 湖北省武漢市東湖新技術*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 kinect 三維空間 交互 方法 | ||
本發明涉及一種基于Kinect的三維空間交互方法,包括如下步驟:創建顏色分區圖像,所述顏色分區圖像與Kinect深度圖分辨率相同;加載所述顏色分區圖像并存儲每個像素所對應的坐標和顏色信息;獲取當前目標的中心位置在Kinect深度圖中的坐標,根據所述坐標獲取當前目標在顏色分區圖像中顏色信息;根據目標在所述顏色分區圖像中的顏色信息和深度信息,判斷目標是否位于觸發交互操作的空間中。本發明其利用圖片顏色劃分區域,圖片可自定義圖案,對非規則區域交互檢測更準確且靈活。
技術領域
本發明涉及計算機圖像處理領域,涉及一種三維空間交互技術,特別涉及一種基于Kinect的三維空間交互方法。
背景技術
NUI是基于人體本能的交互模式,人們可以利用語音、手勢、眼神、肢體等方式實現人機交互,這種交互方式更接近人類自發的行為方式,能減輕用戶的學習負擔。體感交互(somatosensory interaction)是NUI的主流趨勢,因此成為目前自然交互研究領域中最熱門的方向。
體感交互指用戶不借助任何控制設備,直接使用肢體動作與周邊的裝置或環境互動,使用戶有身臨其境的感覺。體感技術一般需要手勢識別、骨鏘追蹤、臉部表情識別等計算機技術的支持。常見的體感交互設備有日本任天堂公司推出的Wii,微軟的Kinect以及體感控制器制造公司Leap發布的體感控制器LeapMotion等,用戶在與機器設備互動的過程中可以通過手勢、姿勢或動作發出指令,實現自然的交互方式。
Kinect V2一共有三個攝像頭,左邊的RGB攝像頭用來獲取最大分辨率為1920×1080的彩色圖像,每秒最多獲取30幀圖像;剩下的兩個攝像頭是深度傳感器,左側是紅外線發射器,右側是紅外線接收器,用來獲取操作者的位置:Kinect兩側是麥克風陣列,可以獲得穩定的語音信息,它配合Microsoft Speech Plarform SDK可用于語音識另:底座內置馬達,可以隨著物體的移動而左右轉動。
發明內容
本發明針對現有技術中存在的技術問題,提供了一種基于Kinect的三維空間交互方法,包括如下步驟:創建顏色分區圖像,所述顏色分區圖像與Kinect深度圖分辨率相同;存儲每個像素所對應的坐標和顏色信息;獲取當前目標的中心位置在Kinect深度圖中的坐標,根據所述坐標獲取當前目標在顏色分區圖像中顏色信息;根據目標在所述顏色分區圖像中的顏色信息和深度信息,判斷目標是否位于觸發交互操作的空間中。
在本發明的一些實施例中,所述顏色分區圖像通過不同顏色來區分深度信息不同的區域。優選的,所述顏色分區圖像可自定義。進一步的,所述顏色分區圖像與Kinect深度圖完全重合。
在本發明的一些實施例中,所述顏色信息包括顏色的名稱或像素的數值表示。具體地,顏色名稱可用中文、英文等語言來表示,或采用常見的RGB、YUV形式來標識。
在本發明的一些實施例中,所述當前目標的中心位置在深度圖中的坐標和深度信息還包括對深度圖進行閾值濾波處理。
在本發明的一些實施例中,所述獲取當前目標的中心位置在Kinect深度圖中的坐標通過OpenCV實現。
在本發明的一些實施例中,所述交互操作包括體感交互。
采用上述進一步方案的有益效果是:利用圖片顏色劃分區域,圖片可自定義圖案,對非規則區域交互檢測更準確且靈活。
附圖說明
圖1為本發明中的一些實施例基于Kinect的三維空間交互方法基本步驟圖;
圖2為本發明中的一些實施例基于Kinect的三維空間交互方法基本步驟圖;
圖3a為本發明中的一些實施例的顏色分區圖像;圖3b為本發明中的一些實施例的Kinect實測深度圖;
圖4為常見的手勢交互示意圖。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢木子弓數字科技有限公司,未經武漢木子弓數字科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010763675.7/2.html,轉載請聲明來源鉆瓜專利網。





