[發明專利]一種基于實時視頻的位姿估計方法在審
| 申請號: | 202011295425.1 | 申請日: | 2020-11-18 |
| 公開(公告)號: | CN112419409A | 公開(公告)日: | 2021-02-26 |
| 發明(設計)人: | 張中;黃俊杰;汪明明 | 申請(專利權)人: | 合肥湛達智能科技有限公司 |
| 主分類號: | G06T7/73 | 分類號: | G06T7/73;G06T7/80;G06T7/246;G06T5/00 |
| 代理公司: | 合肥市長遠專利代理事務所(普通合伙) 34119 | 代理人: | 程篤慶 |
| 地址: | 230000 安徽省合肥市高新*** | 國省代碼: | 安徽;34 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 實時 視頻 估計 方法 | ||
本發明涉及視頻處理技術領域,具體涉及一種基于實時視頻的位姿估計方法,包括以下步驟S1利用攝像機獲取實時視頻數據,并建立攝像機模型;S2利用攝像機模型在三維空間點和二維圖像點之間建立映射;S3對于相鄰圖像之間的位姿變換關系,采用對極幾何的方式進行度量;S4利用PnP算法求解三維空間點到二維圖像點對運動;S5持續計算新的圖像幀對應的位姿變換,并保證尺度一致性;S6利用BA算法對位姿估計進行優化,最終得到最佳的位姿估計結果。本發明提升位姿非線性優化過程中對外點的抵抗能力,有效提升了位姿追蹤算法的精度和魯棒性,實現了視頻序列中位姿參數的精確求解,同時本發明算法的精度高于傳統算法、可靠性更強、具有很強的實時性。
技術領域
本發明涉及視頻處理技術領域,具體涉及一種基于實時視頻的位姿估計方法。
背景技術
人類能夠感知的外界信息約有80%來源于視覺圖像信息,視覺功能在人類感知理解中扮演著十分重要的角色。Gibson理論認為,人類視覺包含兩個主要功能:一是適應外界環境,二是控制自身運動;Marr理論P則認為人類視覺的主要功能是從圖像恢復場景的可見三維表觀。這兩種理論盡管描述的側重點有所不同,但是都認為人類視覺的目的是對外界環境的感知。人類能夠通過視覺感知的外界環境的基本信息又可以分為:位置、形狀、運動和顏色。其中,位置信息的獲取便主要通過位姿估計技術。
同時運動體也開始借助視覺傳感器逐步感知自己的運動,認識自身的位置,快速追蹤運動軌跡,甚至進行實時的三維重建,雖然很困難,但已經有了長足的發展。
近些年,隨著自主移動機器人、可穿戴設備計算、增強現實和自動汽車駕駛等技術的急速發展,計算機視覺在其中發揮著越來越大的作用。到目前為止,以大疆的無人機、Uber自動駕駛汽車、網易增強現實平臺應用等為代表的新生智能體均集成了視覺傳感器,并大量投入使用,以提供環境認知、位姿估算、定位導航等功能,其適用領域呈增長趨勢,具有龐大的市場需求,是目前的研究熱點領域。
發明內容
針對現有技術的不足,本發明公開了一種基于實時視頻的位姿估計方法,用于解決現有的位姿估計適應性和魯棒性很差,在空間環境惡劣的光照條件和非合作目標多變的運動狀態下,很難確保從目標圖像中提取出正確的特征信息并正確地求得目標的位姿是我問題。
本發明通過以下技術方案予以實現:
本發明公開一種基于實時視頻的位姿估計方法,所述方法包括以下步驟:
S1利用攝像機獲取實時視頻數據,并建立攝像機模型;
S2利用攝像機模型在三維空間點和二維圖像點之間建立映射;
S3對于相鄰圖像之間的位姿變換關系,采用對極幾何的方式進行度量;
S4利用PnP算法求解三維空間點到二維圖像點對運動;
S5持續計算新的圖像幀對應的位姿變換,并保證尺度一致性;
S6利用BA算法對位姿估計進行優化,最終得到最佳的位姿估計結果。
更進一步的,所述攝像機模型存在四個坐標系間的轉換關系,包括世界坐標系、相機坐標系、圖像坐標系以及像素坐標系。兙俥
更進一步的,所述S1中,獲取實時視頻的數據,首先對圖像進行預處理,利用畸變參數結合畸變投影模型求得原圖像中像素坐標在校正以后的正確坐標,通過建立原圖像像素坐標與校正后圖像像素坐標的一一對應關系,得到校正后的圖像,消除成像過程中產生的畸變和噪聲。
更進一步的,所述方法對涉及的點特征進行搜索和匹配,具體包括以下步驟:
T1對視頻序列進行適當處理,提取出連續的單一幀圖像;
T2利用特定的目標檢測方法檢測圖像序列中出現的非合作目標本體,作為前景目標;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于合肥湛達智能科技有限公司,未經合肥湛達智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011295425.1/2.html,轉載請聲明來源鉆瓜專利網。





