[發明專利]一種基于卷積神經網絡的雙目視差計算方法有效
| 申請號: | 202010199730.4 | 申請日: | 2020-03-20 |
| 公開(公告)號: | CN111462211B | 公開(公告)日: | 2023-04-28 |
| 發明(設計)人: | 杜娟;湯永超;譚笑宇 | 申請(專利權)人: | 華南理工大學 |
| 主分類號: | G06T7/593 | 分類號: | G06T7/593;G06T7/564;G06V10/766;G06V10/80;G06V10/82;G06V10/44;G06N3/045;G06N3/0464;G06N3/047 |
| 代理公司: | 廣州市華學知識產權代理有限公司 44245 | 代理人: | 王東東 |
| 地址: | 510640 廣*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 卷積 神經網絡 雙目 視差 計算方法 | ||
1.一種基于卷積神經網絡的雙目視差計算方法,其特征在于,包括如下步驟:
S1利用膨脹級聯卷積網絡模塊提取圖像特征,得到左圖特征數據FL和右圖特征數據FR;
S2利用Prewitt算子提取左圖和右圖的圖像邊緣特征信息,生成左圖邊緣特征信息FLP和右圖邊緣特征信息FRP,具體為:
Prewitt算子先求取G(i)和G(j),然后利用FLP(i,j)=GL(i)+GL(j)和FRP(i,j)=GR(i)+GR(j)提取圖像邊緣,其中GL(i)、GL(j)、GR(i)和GR(j)分別代表左圖的y軸方向的邊緣特征,左圖的x軸方向邊緣特征,右圖的y軸邊緣特征和右圖的x軸邊緣特征,求取公式如下:
GL(i)={[IL(i-1,j-1)+IL(i-1,j)+IL(i-1,j+1)]-[IL(i+1,j-1)+IL
(i+1,j)+IL(i+1,j+1)]};
GL(j)={[IL(i-1,j+1)+IL(i,j+1)+IL(i+1,j+1)]-[IL(i-1,j-1)+IL(i,j-
1)+IL(i+1,j-1)]};
GR(i)={[IR(i-1,j-1)+IR(i-1,j)+IR(i-1,j+1)]-[IR(i+1,j-1)+IR
(i+1,j)+IR(i+1,j+1)]};
GR(j)={[IR(i-1,j+1)+IR(i,j+1)+IR(i+1,j+1)]-[IR(i-1,j-1)+IR(i,j-
1)+IR(i+1,j-1)]};
S3利用多尺度卷積網絡提取圖像邊緣特征及圖像特征中的信息,并進行融合,獲得左圖多尺度特征信息和右圖多尺度特征信息;
S4根據左圖多尺度特征信息、右圖多尺度特征信息和視差網絡層搭建4D?Cost?Volume信息Fcost;
S5搭建3D?CNN網絡進行回歸計算,獲得每一層視差值的代價值Cd;
S6根據每層視差值對應的代價值Cd,利用Softmax函數將每一層視差值的代價值Cd映射到0-1區間,并對視差范圍內所有的視差進行加權求和處理,進而獲得雙目視差結果;
所述搭建3D?CNN網絡進行回歸計算,具體為:
采用損失函數Loss對4D?Cost?Volume信息Fcost進行回歸計算,獲得對應視差層的代價值Cd;
其中,損失函數Loss為其中N為視差層數,di為當前像素點真實視差,為當前像素點預估視差。
2.根據權利要求1所述的雙目視差計算方法,其特征在于,所述S1中膨脹級聯卷積網絡模塊為三層結構,第一層為一個3*3卷積核層,第二層為三個1*1卷積核層和三個3*3膨脹卷積核層并行組合,第三層為3*3卷積核層。
3.根據權利要求2所述的雙目視差計算方法,其特征在于,所述第二層中,一個1*1卷積核層為第一條并行通道,一個1*1卷積核層和一個3*3膨脹卷積核層串聯組成第二條并行通道,一個1*1卷積核層和二個3*3膨脹卷積核層串聯組成第三條并行通道。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華南理工大學,未經華南理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010199730.4/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種多模態機器人智能繪畫方法
- 下一篇:一種AGV小車自動調試系統





