[發明專利]一種基于深度學習的超分辨白光干涉圖三維重建方法有效
| 申請號: | 202010868358.1 | 申請日: | 2020-08-26 |
| 公開(公告)號: | CN111986315B | 公開(公告)日: | 2023-07-21 |
| 發明(設計)人: | 楊忠明;辛磊;劉兆軍 | 申請(專利權)人: | 山東大學 |
| 主分類號: | G06T17/00 | 分類號: | G06T17/00;G06T3/40;G06N3/04;G06N3/0464;G01B11/24 |
| 代理公司: | 濟南金迪知識產權代理有限公司 37219 | 代理人: | 顏洪嶺 |
| 地址: | 250199 山*** | 國省代碼: | 山東;37 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 分辨 白光 干涉 三維重建 方法 | ||
本發明涉及一種基于深度學習的超分辨白光干涉圖三維重建方法,該方法通過FSRCNN網絡對CCD采集的干涉圖進行超分辨處理,進一步豐富白光干涉圖的細節信息,再用改良后的重心法算法提取出待測樣品各點干涉信號的零光程差位置,提取樣品高度信息。該方法能有效地提高白光干涉法的橫向分辨率,能夠實現通過低倍率物鏡實現高倍率物鏡的測量效果,甚至在極限條件下能突破該方法的橫向分辨能力的極限。同時本發明是在算法上對測量結果的優化,故不需要添加額外的硬件,在傳統的白光干涉系統的基礎上就能實現,具有較強的兼容性與適用性。
技術領域
本發明涉及一種基于深度學習的超分辨白光干涉圖三維重建方法,屬于精密測量信號處理技術領域。
背景技術
白光干涉測量技術是一種重要的測量方法,具有非接觸、測量速度快、范圍大、精度高等優點,在超精密加工器件、MEMS元器件、生物細胞組織等微結構形貌測量領域得到廣泛應用。白光干涉測量技術是基于參考光與物光的干涉光強隨著測量臂位置變化的信號提取樣品各個位置的高度信息,進一步恢復樣品的表面形貌。然而,白光干涉技術的橫向分辨率受到顯微物鏡倍率和衍射極限的限制,難以突破現有的橫向分辨率。此外,雖然顯微物鏡放大倍率越高,實際測量結果的橫向分辨率也越高,但高倍物鏡的設計和制作過程復雜而繁瑣,價格昂貴,并且實際測量過程中也因高倍率物鏡視場小、焦距短而增加操作難度。因此,通過低倍率物鏡實現高倍率物鏡的測量結果,甚至是通過對高倍率物鏡測量結果處理,突破現有測量能力的橫向分辨率極限是一件十分有意義的工作。
近年來,深度學習(DL)得到了快速發展。由于其工作效率高,與其他領域相結合得到了廣泛的應用。卷積神經網絡(CNNs)是一種具有代表性的DL技術,在圖像信號識別和處理領域表現出了優越的性能。特別是一種新型的CNN模型,快速超分辨率卷積神經網絡(FSRCNN),在圖像超分辨率處理領域被證明是非常有效的。
因此,我們提出一種基于FSRCNN對白光干涉圖超分辨處理后,再提取處理后的干涉圖的高度信息進行三維重構的算法,該方法能有效的提高測量結果的橫向分辨率,實現通過低倍物鏡獲得高倍物鏡的結果,在適當條件下甚至可以突破現有的白光干涉測量的橫向分辨率極限。
發明內容
針對現有技術的不足,本發明提供一種基于深度學習的超分辨白光干涉圖三維重建方法,實現現有白光干涉系統測量結果橫向分辨率的進一步提高,實現白光干涉系統不受物鏡倍率的影響,甚至突破測量能力的橫向分辨率極限。
本發明的技術方案如下:
一種基于深度學習的超分辨白光干涉圖三維重建方法,包括以下步驟:
(1)搭建FSRCNN網絡,輸入對應的低分辨率與高分辨率干涉圖進行訓練,獲得權重系數及偏差數用于深度學習處理參數;
(2)使用訓練后的FSRCNN網絡處理干涉圖,即向FSRCNN網絡輸入一組實際測量過程中CCD采集到的白光干涉圖,由FSRCNN網絡輸出超分辨處理后的高分辨的干涉圖;
(3)將所有超分辨處理后的干涉圖收集起來作為處理樣本,以點為單位提取樣本所有位置光強隨測量臂位置移動的光強變化曲線即為干涉信號;
(4)使用改良后的重心法算法提取干涉信號最大值的位置坐標即為該點的高度信息;
(5)提取出樣品表面所有位置處的高度信息,恢復樣品完整的三維表面形貌。
優選的,步驟(1)中,搭建的FSRCNN網絡包括以下內容:
(a)FSRCNN網絡分為六步,分別是特征提取,收縮,非線性映射,擴張,反卷積以及補充,依次對應著Conv1,Conv2,Conv3,Conv4,DeConv層以及從輸入圖到輸出圖的直連通道;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于山東大學,未經山東大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010868358.1/2.html,轉載請聲明來源鉆瓜專利網。





