[發明專利]一種基于神經網絡優化的相位像差校正算法在審
| 申請號: | 202211283527.0 | 申請日: | 2022-10-20 |
| 公開(公告)號: | CN115585749A | 公開(公告)日: | 2023-01-10 |
| 發明(設計)人: | 趙建林;唐雎;吳計;張佳偉;邸江磊 | 申請(專利權)人: | 西北工業大學 |
| 主分類號: | G01B11/24 | 分類號: | G01B11/24;G06N3/04;G06N3/08;G06T5/00 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 710072 陜西*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 神經網絡 優化 相位 校正 算法 | ||
本發明公開了一種基于神經網絡優化的相位像差校正算法,涉及數字全息測量領域,其技術特征在于:使用數字全息術測量并處理后,得到解包裹后的帶相位像差的物體相位像。建立神經網絡模型,將網絡的輸出確定為一組向量,并根據Zernike像差模型轉化為擬合相位。計算帶相位像差的物體相位像與擬合相位的差值作為殘差物體相位像,構建多域損失約束對其進行約束推動網絡參數優化,直至得到相位像差校正的物體相位像。該方法的優勢在于不受物體相位是微擾的假設影響,無需復雜調參也無需額外的圖像分割算法,擺脫了深度學習算法對大量數據的依賴和泛化能力差的缺陷,適用于單幅或多幅的各類物體,能夠實現相位像差的快速擬合和精確校正。
技術領域
本發明屬于數字全息測量領域,具體涉及數字全息測量中的相位像差校正方法。
背景技術
數字全息術可通過干涉記錄和模擬再現兩個步驟準確獲得物光波路徑上的相位分布。然而,由于離軸角、路徑擾動、光學透鏡的固有像差等問題,導致記錄的物體相位像會包含疊加的背景相位像差。尤其在數字全息顯微測量系統中,高倍物鏡帶來的二次相位像差尤其嚴重,極大影響了物體三維形貌測量的準確性。因此,必須采用相位像差校正方法對其進行像差補償。
數字全息術中的相位像差校正技術主要可分為兩類:物理補償法和數值補償法。其中,物理補償法需要在測量光路中引入額外的光學元件并精確校準,增加了系統的固有成本、復雜度和測量要求,且只能用于補償光學元件帶來的固有像差。數值補償法主要可分為二次曝光法和數值擬合法。二次曝光法假定系統是恒定不變的,通過記錄背景全息圖用于抵消系統像差,但無法校正長時間觀測中擾動帶來的相位像差。數值擬合法通過構建像差模型,利用優化算法進行數值擬合來補償相位像差,其常見算法包含最小二乘法、基于圖像分割的最小二乘法、擬牛頓法、深度學習法等。
最小二乘法利用構建的像差多項式模型,對帶相位像差的物體相位像進行最小二乘擬合求解最優系數,但需要建立在物體相位相對于像差相位是微擾的假設上,應用范圍受限。基于圖像分割的最小二乘法結合圖像分割技術將物體相位信息剔除來減小誤差,但圖像分割算法又需要額外的調參成本和運行時間。擬牛頓法可利用構建的目標函數進行系數求解,但具備專業調參,迭代優化時間長和精度受限等缺陷。深度學習法通過采集的數據集預先訓練網絡參數,以直接校正相位像差或提取相位像差用于補償,但該方法依賴前期采集的大量數據和長時間的訓練,無法泛化到所有情況的樣本。
發明內容
本發明提供一種基于神經網絡優化的相位像差校正算法,通過構建多域損失約束,利用神經網絡模型和Zernike多項式像差模型的組合優化求解Zernike系數,最終校正效果顯著。相較于現有算法,本發明優化時間短且準確率高,無需物體相位為微擾的假設和復雜調參,也無需提前訓練網絡參數,可適用于單幅或多幅帶相位像差的各類物體相位像的快速準確校正,有利于保證數字全息測量系統的實時性和準確性。
本發明的具體技術方案是:
一種基于神經網絡優化的相位像差校正算法,其特征在于該方法包括以下步驟:
S1.使用數字全息術,得到解包裹后的帶相位像差的物體相位像P;
S2.建立神經網絡模型,設置非零常數向量為網絡輸入,將網絡的輸出確定為一組向量,標記為C={c1,c2,…,cN},其中N-1為Zernike像差模型擬合所需系數的數量,初始化網絡參數,將網絡的輸出向量作為Zernike多項式的系數,利用多項式模型計算得到擬合相位B;
S3.取帶相位像差的物體相位像P和擬合相位B的差值作為殘差物體相位像,構建多域損失約束,其中可以包含平均絕對誤差損失約束、包裹梯度損失約束和局部L1損失約束等,推動網絡迭代優化,進一步設置收斂條件,判斷殘差物體相位像是否滿足收斂條件;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西北工業大學,未經西北工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211283527.0/2.html,轉載請聲明來源鉆瓜專利網。





