[發明專利]一種并行虛擬視點合成方法有效
| 申請號: | 201410317820.3 | 申請日: | 2014-07-03 |
| 公開(公告)號: | CN104079915A | 公開(公告)日: | 2014-10-01 |
| 發明(設計)人: | 金欣;劉站奇;戴瓊海 | 申請(專利權)人: | 清華大學深圳研究生院 |
| 主分類號: | H04N13/00 | 分類號: | H04N13/00;H04N15/00;H04N21/24 |
| 代理公司: | 深圳新創友知識產權代理有限公司 44223 | 代理人: | 王震宇 |
| 地址: | 518055 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 并行 虛擬 視點 合成 方法 | ||
1.一種并行虛擬視點合成方法,其特征在于,包括:
對讀入的輸入幀進行分割,讓各個線程分別對不同的圖像塊進行并行的視點合成,然后將各個子線程產生的虛擬視點圖像進行拼接,產生一個完整的虛擬視點圖像輸出。
2.如權利要求1所述的方法,其特征在于,包括:根據當前幀線程之間的負載情況調整下一幀的分割高度來達到負載均衡,所述調整包括以下步驟:
根據每個線程時間與平均線程時間之差,計算幀內每個分割高度調整所對應的時間,然后以行為單位向上或者向下搜索,補償此時間進而算出調整高度,實現負載均衡,其中,每個線程的視點合成包括參考視點向虛擬視點的映射和左右映射圖像的融合,將參考視點向虛擬視點的映射所用的時間和左右映射圖像的融合所用的時間之和作為各個線程時間。
3.如權利要求1所述的方法,其特征在于,通過以下方式確定每個線程時間:
確定參考視點向虛擬視點的映射所用的時間為:
TForwardWarp()=k1·Width·height·2,其中Width為線程對應的圖像塊的寬度,height為線程對應的圖像塊的高度,
確定左右映射圖像的融合所用的時間為:
確定執行此圖像塊的線程時間為:
其中,k1是將所有線程中參考視點向虛擬視點的映射時間TForwardWarp()加在一起除以總的像素點數,即
k2是將所有線程中左右映射圖像的融合所用時間TMerge()加在一起除以總的非
空洞像素點數
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于清華大學深圳研究生院,未經清華大學深圳研究生院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201410317820.3/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種360度全景立體相機
- 下一篇:一種基于列表搜索的激光夜視儀3D定位方法





