[發明專利]基于學習的條紋相位恢復和散斑相關的三維測量方法有效
| 申請號: | 202010721119.3 | 申請日: | 2020-07-24 |
| 公開(公告)號: | CN111947599B | 公開(公告)日: | 2022-03-22 |
| 發明(設計)人: | 尹維;左超;陳錢;馮世杰;孫佳嵩;胡巖;尚昱昊;陶天陽 | 申請(專利權)人: | 南京理工大學 |
| 主分類號: | G01B11/25 | 分類號: | G01B11/25 |
| 代理公司: | 南京理工大學專利中心 32203 | 代理人: | 岑丹 |
| 地址: | 210094 *** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 學習 條紋 相位 恢復 相關 三維 測量方法 | ||
1.一種基于學習的條紋相位恢復和散斑相關的三維測量方法,其特征在于,具體步驟為:
步驟1:通過兩個相機同步采集一張高頻條紋圖和一張散斑圖;
步驟2:根據兩個相機同步采集的散斑圖案,基于立體匹配網絡得到初始視差圖;
所述立體匹配網絡包括一個共享子網絡和若干具有共享權重的全連接層,所述共享子網絡包括依次堆疊在前端的一個卷積層和若干殘差塊,堆疊在后端的九個卷積層;
步驟3:將高頻條紋圖輸入訓練好的U-net網絡,獲得包裹相位,具體為:
將高頻條紋圖輸入訓練好的U-net網絡,得到反正切函數的分子項和分母項M(x,y)和D(x,y);
根據M(x,y)和D(x,y)得到包裹相位圖具體為:
U-net網絡訓練時的標簽為使用三步相移算法獲得且去除背景信息后的反正切函數的分子項和分母項M(x,y)和D(x,y);
去除背景信息的具體方法為:
將像素點對應的實際的條紋調制度與設定閾值作比較,若低于閾值,則將該像素點對應的反正切函數的分子項和分母項設為0;
步驟4:利用包裹相位約束優化初始視差圖,獲得高精度視差圖;
步驟5:根據相機的標定參數,將高精度視差圖轉換為三維信息,完成三維測量。
2.根據權利要求1所述的基于學習的條紋相位恢復和散斑相關的三維測量方法,其特征在于,基于立體匹配網絡得到初始視差圖的具體方法為:
對來自兩個不同視角的兩張散斑圖分別進行立體校正,將散斑圖案裁剪為大小不同的塊數據;
將塊數據輸入訓練好的立體匹配網絡,獲得初始匹配成本;
采用基于半全局匹配的成本聚合方法對初始匹配成本進行優化;
通過勝者為王算法將具有最低成本值的候選視差作為整像素視差值,并通過五點二次曲線擬合模型獲得具有亞像素精度的視差圖。
3.根據權利要求1所述的基于學習的條紋相位恢復和散斑相關的三維測量方法,其特征在于,像素點對應的實際的條紋調制度具體為:
其中,I1(x,y),I2(x,y),I3(x,y)為對應的三步相移條紋圖光強,Modulation(x,y)是實際的條紋調制度。
4.根據權利要求1~3任一所述的基于學習的條紋相位恢復和散斑相關的三維測量方法,其特征在于,利用包裹相位約束優化初始視差圖,獲得高精度視差圖的具體方法為:
根據初始視差圖和包裹相位信息,通過最小化兩個視角的包裹相位之間的差異實現基于相位信息的立體匹配,獲得整像素的匹配點;
利用整像素的匹配點及其鄰點的相位信息,通過線性插值算法完成亞像素匹配,獲得高精度視差圖。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京理工大學,未經南京理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010721119.3/1.html,轉載請聲明來源鉆瓜專利網。





