[發明專利]一種快速光場角度超分辨重建方法在審
| 申請號: | 202011164974.5 | 申請日: | 2020-10-27 |
| 公開(公告)號: | CN112365400A | 公開(公告)日: | 2021-02-12 |
| 發明(設計)人: | 王興政;昝永強;游森林;鄧元龍 | 申請(專利權)人: | 深圳大學 |
| 主分類號: | G06T3/40 | 分類號: | G06T3/40;G06T7/55;G06N3/04;G06N3/08 |
| 代理公司: | 深圳市君勝知識產權代理事務所(普通合伙) 44268 | 代理人: | 謝松;吳志益 |
| 地址: | 518060 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 快速 角度 分辨 重建 方法 | ||
1.一種快速光場角度超分辨重建方法,其特征在于,包括步驟:
根據預設視角的位置,獲取兩個輸入視角圖像;其中,所述預設視角與所述兩個輸入視角圖像對應的輸入視角僅存在水平方向視差;
將所述兩個輸入視角圖像輸入已訓練的圖像重建網絡,通過所述圖像重建網絡對所述兩個輸入視角圖像進行處理,得到新視角圖像;其中,所述新視角圖像對應的視角為預設視角。
2.根據權利要求1所述的快速光場角度超分辨重建方法,其特征在于,所述預設視角的位置在所述兩個輸入視角之間或為兩個輸入視角的位置。
3.根據權利要求2所述的快速光場角度超分辨重建方法,其特征在于,所述已訓練的圖像重建網絡包括已訓練的深度估計網絡和已訓練的顏色估計網絡,所述通過所述圖像重建網絡對所述兩個輸入視角圖像進行處理,得到新視角圖像,包括:
將所述兩個輸入視角圖像輸入已訓練的深度估計網絡,通過所述已訓練的深度估計網絡得到新視角圖像的深度信息;
將所述新視角圖像的深度信息以及所述兩個輸入視角圖像輸入所述已訓練的顏色估計網絡,通過所述已訓練的顏色估計網絡得到新視角圖像。
4.根據權利要求3所述的快速光場角度超分辨重建方法,其特征在于,所述已訓練的深度估計網絡包括第一卷積神經網絡,所述通過所述深度估計網絡得到新視角圖像的深度信息,包括:
根據所述預設視角與所述輸入視角的最大視差范圍,預設若干個深度等級;
根據所述若干個深度等級的深度信息,對所述兩個輸入視角圖像進行特征提取,得到深度特征集;
將所述深度特征集輸入第一卷積神經網絡,通過所述第一卷積神經網絡得到所述新視角圖像的深度信息。
5.根據權利要求4所述的快速光場角度超分辨重建方法,其特征在于,所述根據所述若干個深度等級的深度信息,對所述兩個輸入視角圖像進行特征提取,得到深度特征集,包括:
根據每個深度等級的深度信息以及所述兩個輸入視角圖像,得到所述每個深度等級對應的兩個第一映射圖像;
根據所述每個深度等級對應的兩個第一映射圖像,得到每個深度等級對應的均值和標準差;
將所有深度等級對應的均值和標準差組成集合,得到深度特征集。
6.根據權利要求3所述的快速光場角度超分辨重建方法,其特征在于,所述已訓練的顏色估計網絡包括第二卷積神經網絡,所述通過所述已訓練的顏色估計網絡得到新視角圖像,包括:
根據所述新視角圖像的深度信息、所述預設視角的位置以及所述兩個輸入視角圖像得到顏色特征集;
將所述顏色特征集輸入所述已訓練的第二卷積神經網絡,通過所述已訓練的第二卷積神經網絡得到新視角圖像。
7.根據權利要求6所述的快速光場角度超分辨重建方法,其特征在于,所述根據所述新視角圖像的深度信息、所述預設視角的位置以及所述兩個輸入視角圖像得到顏色特征集,包括:
根據所述新視角圖像的深度信息、所述預設視角的位置以及所述兩個輸入視角圖像,得到兩個第二映射圖像;
將所述兩個第二映射圖像、所述新視角圖像的深度信息以及所述預設視角的位置組成集合,得到顏色特征集。
8.根據權利要求7所述的快速光場角度超分辨重建方法,其特征在于,根據所述新視角圖像的深度信息、所述預設視角的位置以及所述兩個輸入視角圖像,得到兩個第二映射圖像,包括:
根據所述新視角圖像的深度信息以及所述預設視角的位置,得到所述兩個輸入視角圖像與所述新視角圖像的視差;
根據所述視差以及所述兩個輸入視角圖像,得到兩個第二映射圖像。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳大學,未經深圳大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011164974.5/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:軌道交通車廂智能噴涂生產線
- 下一篇:一種環境友好型濕鋪防水卷材及其制備方法





