[發明專利]基于未訓練深度解碼神經網絡的非視域成像方法在審
| 申請號: | 202111489994.4 | 申請日: | 2021-12-08 |
| 公開(公告)號: | CN114494480A | 公開(公告)日: | 2022-05-13 |
| 發明(設計)人: | 孟祥鋒;劉守佩;吳華錚;楊修倫;殷永凱 | 申請(專利權)人: | 山東大學 |
| 主分類號: | G06T11/00 | 分類號: | G06T11/00;G06T9/00;G06N3/04;G06N3/08 |
| 代理公司: | 濟南金迪知識產權代理有限公司 37219 | 代理人: | 陳桂玲 |
| 地址: | 250199 山*** | 國省代碼: | 山東;37 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 訓練 深度 解碼 神經網絡 視域 成像 方法 | ||
1.一種基于未訓練深度解碼神經網絡的非視域成像方法,其特征是,包括以下步驟:
(1)成像目標場景f顯示在一個顯示器上,設定顯示器的右下角為空間坐標軸x軸和z軸的原點,二次反射界面處對應點為y軸的原點;對成像場景進行標定,測量顯示器到墻面的距離D,遮擋物的空間坐標p,相機測量的視場范圍及視場右下角空間坐標。
(2)根據朗伯雙向反射分布函數BRDF構建非視域成像模型公式,得到測量值I與成像目標場景f的映射關系,將成像模型公式離散化估計得到計算公式I=A(p)f+b,其中b為場景中的背景噪聲項,至此得到光線傳輸矩陣A(p)的具體表達式,將已知場景參數代入計算得到其具體形式;
(3)基于U-net結構框架構建未訓練深度解碼神經網絡Gw,將網絡參數隨機初始化,使用MSELoss結合全變分約束作為訓練的損失函數L,選取MSELoss與全變分約束之間的比例,設置學習率及訓練次數;
(4)根據成像模型公式,將目標場景圖像與預先得到的傳輸矩陣相乘,并設置隨機噪聲,得到合成的測量光強I;
(5)將測量值I輸入到未訓練深度解碼神經網絡Gw中,網絡的預期輸出為成像場景的估計將其與事先計算得到的光線傳輸矩陣A(p)相乘得到估計的測量光強通過損失函數L計算估計的測量值與真實的測量值I之間的損失值,將其反向傳播,更新網絡的權重參數。隨著優化不斷進行,損失函數值不斷減小并趨于收斂,訓練結束后,該神經網絡對目標成像場景進行重建。
2.根據權利要求1所述的基于未訓練深度解碼神經網絡的非視域成像方法,其特征是,所述步驟(1)中非視域成像模型公式為:
設定顯示器的右下角為x軸坐標原點,顯示屏所在平面z=0,桌面上對應點為y軸坐標原點,當遮擋物位于顯示器和反射墻面間的p位置處,墻面在pw位置處測量值I表示為:
公式中,f(x)是成像顯示器場景,x表示場景坐標,nx和nw分別表示顯示器和墻面的法線方向,V是布爾值可見函數,當光線從顯示器傳播到墻面不被遮擋時值為1,否則為0;μ(x,pw)描述了顯示器隨著視角變化的光輻射模型;b(pw)則表示系統中包含的平均噪聲。
3.根據權利要求1所述的基于未訓練深度解碼神經網絡的非視域成像方法,其特征是,所述步驟(3)中的深度解碼神經網絡包含四個模塊:卷積塊,2×2的最大池化塊,上卷積塊以及跳躍連接塊。
4.根據權利要求1所述的基于未訓練深度解碼神經網絡的非視域成像方法,其特征是,所述MSELoss與全變分約束之間的比例為1:500-1:400。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于山東大學,未經山東大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202111489994.4/1.html,轉載請聲明來源鉆瓜專利網。





