[發明專利]一種場景建模的方法及裝置有效
| 申請號: | 201611258236.0 | 申請日: | 2016-12-30 |
| 公開(公告)號: | CN108269278B | 公開(公告)日: | 2020-09-11 |
| 發明(設計)人: | 王舸 | 申請(專利權)人: | 杭州海康威視數字技術股份有限公司 |
| 主分類號: | G06T7/50 | 分類號: | G06T7/50 |
| 代理公司: | 北京柏杉松知識產權代理事務所(普通合伙) 11413 | 代理人: | 馬敬;項京 |
| 地址: | 310051 浙*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 場景 建模 方法 裝置 | ||
本發明實施例提供了一種場景建模的方法及裝置,該方法包括:獲得單目圖像采集設備在多個視點采集的場景圖像以及單目圖像采集設備在多個視點對應的姿態信息,該單目圖像采集設備為可自動調整視點且可確定對應姿態信息的設備;從所獲得的多個場景圖像中的每一場景圖像中提取特征點;并確定出至少一組特征點對,每一特征點對中兩個特征點對應的場景對象相同;根據所確定的至少一組特征點對所包含的每個特征點,以及該每個特征點所在場景圖像對應的視點的姿態信息,確定目標場景的深度信息;根據深度信息,對目標場景進行建模。應用本發明實施例能夠得到更準確的深度信息,并建立更準確的場景模型。
技術領域
本發明涉及數據處理技術領域,特別是涉及一種場景建模的方法及裝置。
背景技術
隨著當前社會的飛速發展,人文娛樂欣賞需求也日益增多,對于視頻例如:電視電影等觀看的要求,不僅僅是高清彩色,觀看者需要更加真實的三維效果,立體視頻相關研究和應用成為當前熱點問題。
現有技術中,可以通過單目圖像采集設備完成對場景的建模,獲得三維效果。例如:數據服務器對移動傳感器(單目圖像采集設備)所獲得的室內序列影像進行光束法平差處理,并獲得每一影像的定姿定位數據,數據服務器將所獲得每一影像的定姿定位數據發送至移動傳感器,移動傳感器根據每一影像的定姿定位數據在對應的室內序列影像進行立體測量。
光束法平差處理是通過單目圖像采集設備對場景建模的一個關鍵步驟,其能得到場景建模時所依賴的場景的深度信息。光束法平差處理是一種全局最優算法,其是以共線方程式作為數學模型,像點的像平面坐標觀測值是未知數的非線性函數。經過線性化后按照最小二乘法原理進行計算。光束法平差處理是在提供一個近似解的基礎上,逐次迭代來達到趨近于最佳值的,因此,其需要較好的迭代初值,否則,光束法平差處理的迭代計算次數會增多,并且,所得到的深度信息不夠準確。
現有技術中僅依靠所獲得室內序列影像作為光束法平差處理的迭代初值,該迭代初值不夠準確,使得光束法平差處理的迭代計算次數增加,導致場景建模的整體計算速度較慢,并且利用該迭代初值所得到的深度信息不夠準確,進一步的建模不夠準確。
那么,如何利用單目圖像采集設備獲得準確的迭代深度初值成為亟待解決的問題。
發明內容
本發明實施例的目的在于提供一種場景建模的方法及裝置,以實現利用單目圖像采集設備獲得更準確的影像的深度信息,進一步的根據該深度信息建立更準確的場景模型。具體技術方案如下:
一方面,本發明實施例提供了一種場景建模的方法,所述方法包括:
獲得單目圖像采集設備在多個視點采集的場景圖像,并獲得所述單目圖像采集設備在所述多個視點對應的姿態信息,其中,所述單目圖像采集設備為可自動調整視點且可確定對應姿態信息的設備;
從每一場景圖像中提取特征點;并根據所提取的特征點,確定出至少一組特征點對,其中,每一特征點對中兩個特征點對應的場景對象相同,所述每一特征點對是由第一場景圖像的第一特征點與第二場景圖像的第二特征點組成的;
根據所確定的至少一組特征點對所包含的每個特征點,以及所述每個特征點所在場景圖像對應的視點的姿態信息,確定所述目標場景的深度信息;
根據所述深度信息,對所述目標場景進行建模。
可選的,所述每一場景圖像中提取特征點;并根據所提取的特征點,確定出至少一組特征點對的步驟,包括:
從所獲得的多個場景圖像中,選擇符合第一預定條件的一張圖像作為當前的第一場景圖像,其中,所述第一預定條件包括:未被作為第一場景圖像;
從所獲得的除所述當前的第一場景圖像外的其他多個場景圖像中,確定與所述當前的第一場景圖像存在重疊區域的至少一張第二場景圖像;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州??低晹底旨夹g股份有限公司,未經杭州海康威視數字技術股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201611258236.0/2.html,轉載請聲明來源鉆瓜專利網。





