[發明專利]一種基于多人視角定位空間交互AR實現方法和系統有效
| 申請號: | 202110632319.6 | 申請日: | 2021-06-07 |
| 公開(公告)號: | CN113342167B | 公開(公告)日: | 2022-03-15 |
| 發明(設計)人: | 謝濱丞;謝源;李敏;姚成忠 | 申請(專利權)人: | 深圳市金研微科技有限公司 |
| 主分類號: | G06F3/01 | 分類號: | G06F3/01;G06T15/00;G06T19/00;G06V40/16 |
| 代理公司: | 北京冠和權律師事務所 11399 | 代理人: | 趙銀萍 |
| 地址: | 518000 廣東省深圳市龍華區龍華街道三聯*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 視角 定位 空間 交互 ar 實現 方法 系統 | ||
本發明提出了一種基于多人視角定位空間交互AR實現方法和系統。所述方法包括:獲取多用戶位于真實空間中的視角、位置及行為動作,并將視角、位置及行為動作對應的參數賦值給三維虛擬渲染引擎;所述三維虛擬渲染引擎根據獲取的數據屬性創建虛擬空間或虛擬對象;將已經渲染創建過的虛擬空間或虛擬對象發送給多人佩戴的AR眼鏡設備;依據AR眼鏡的光學視覺成像,將真實空間中的真實物體和由三維虛擬引擎渲染創建的虛擬場景中的虛擬物體進行疊加融合。所述系統包括與所述方法步驟對應的模塊。
技術領域
本發明提出了一種基于多人視角定位空間交互AR實現方法和系統,屬于虛擬成像技術領域。
背景技術
由一種未來可穿戴式AR眼鏡設備主動創建而被用戶所感知的一個增強現實的三維虛擬空間環境,在這個生成的增強現實空間環境中,其用戶所感知的部分或全部都是由AR眼鏡設備渲染生成,并與現實物體相疊加相互交映,這些疊加的現實物體與虛擬物體都可以轉換成數據對象進行描述及現實呈現,這些對象以用戶感知其所接觸的物理世界一部分進行交互,并可進行三維交互共享給其他不同用戶,以讓所有用戶都能夠感受共享的交互式三維虛擬環境,用戶以基于AR眼鏡方式承載操作,從而體驗這些共享的虛擬對象,共享的三維虛擬對象數據可顯示給所有AR眼鏡用戶,并可控制播放音頻、文本等內容,提供觸控可交互的界面,都能夠讓用戶感受到真正的虛擬對象交互體驗。
這種增強現實多人共享交互的三維空間系統可以應用于多種領域,包括個人娛樂、科學可視化、教育培訓、工程設計和原型設計、及遠程操作呈現,而AR增強顯示三維空間共享交互包含一個或多個與物理世界的真實對象相關的虛擬對象,而虛擬對象與真實對象交互的體驗極大增強了AR眼鏡用戶使用可交互式共享三維空間系統所帶來的樂趣,也基于提供開放平臺生態建設,為各種應用開發者提供系統環境支持,而合作的應用開發者能夠帶來豐富多態且滿足不同應用場景需求的應用。
這種增強現實多人共享交互的三維空間系統是把用戶周圍的物理世界表現為網格狀表示,其一個網格將由多個相互連接的多邊形表示,而在物理世界與虛擬世界的映射中,每一個多邊形在其表面上都有邊和點,這樣每個多邊形就代表了表面的一部分,涉及表面部分的有關信息例如顏色、紋理或者其他屬性,以組成形成物理世界與虛擬世界物體映射對象的描述,通過實時處理圖像信息來檢測點和表面,并共享在三維空間中生成的物體對象。
以AR增強顯示正發展代表著未來智能計算平臺信息處理的顯示方式,其中AR增強顯示不僅需要將虛擬空間和真實空間進行圖像信息的疊加融合,還需要保障隨著一人或多人視角改變或相對位置及行為動作變化,其虛擬空間和真實空間都能夠保障實時融合同步與即時交互反饋。
目前AR實現技術主要分為兩種,一種為基于深度識別技術對真實空間進行預先三維掃描和位置獲取,并在此基礎上進行虛擬物體的設計制作,并根據用戶視點的位置采用三維虛擬渲染引擎轉換計算對應三維虛擬物體的位置信息,從而獲得虛擬空間和真實空間的疊加融合。另一種基于圖像識別技術對真實三維物體進行預先識別掃描,以結合三維虛擬渲染引擎制作虛擬物體對象和真實物體疊加交互顯示。而以上兩種方式都存在不足點,如深度識別范圍有限,其遠場不易識別精準,并且計算渲染能力有限,缺乏多人視角定位交互計算支持,也無法捕捉用戶的位置改變和行為方式,所以有必要設計一種基于多人視角定位空間交互AR實現方法及系統,實現根據對多人所處的真實空間的相互位置與對真實物體的相對位置,進行模擬復刻虛擬疊加以進行位置和交互行為計算,使其具有廣泛的應用范圍。
發明內容
本發明提供了一種基于多人視角定位空間交互AR實現方法和系統,用以解決遠場識別精準度低,渲染能力有限,缺乏多人視角定位交互支持,也無法捕捉用戶的位置改變和行為方式的問題,所采取的技術方案如下:
一種基于多人視角定位空間交互AR實現方法,多個用戶佩戴AR設備,所述方法包括:
獲取多用戶位于真實空間中的視角、位置及行為動作,并將視角、位置及行為動作對應的參數賦值給三維虛擬渲染引擎;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳市金研微科技有限公司,未經深圳市金研微科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110632319.6/2.html,轉載請聲明來源鉆瓜專利網。





