[發(fā)明專利]一種基于可見光單圖像的弱紋理表面微結(jié)構(gòu)特征提取方法在審
| 申請?zhí)枺?/td> | 202210874829.9 | 申請日: | 2022-07-25 |
| 公開(公告)號: | CN115170832A | 公開(公告)日: | 2022-10-11 |
| 發(fā)明(設(shè)計)人: | 王映輝;梁炎興 | 申請(專利權(quán))人: | 江南大學(xué) |
| 主分類號: | G06V10/54 | 分類號: | G06V10/54;G06V10/762;G06V10/764;G06V10/82 |
| 代理公司: | 哈爾濱市陽光惠遠(yuǎn)知識產(chǎn)權(quán)代理有限公司 23211 | 代理人: | 呂永芳 |
| 地址: | 214122 江蘇*** | 國省代碼: | 江蘇;32 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 可見光 圖像 紋理 表面 微結(jié)構(gòu) 特征 提取 方法 | ||
本發(fā)明公開了一種基于可見光單圖像的弱紋理表面微結(jié)構(gòu)特征提取方法,屬于圖像處理技術(shù)領(lǐng)域。本發(fā)明在自然可見光場景下,通過拍攝弱紋理表面、灰度調(diào)整、K?Prototypes聚類自適應(yīng)網(wǎng)格劃分、Gabor核提取高頻細(xì)節(jié)特征等步驟,獲得弱紋理表面微幾何凹凸特征,解決了現(xiàn)有方法對弱紋理表面區(qū)域無法提取自身固有特征或提取精度低的問題,達(dá)到了對弱紋理表面的微觀結(jié)構(gòu)的特征識別和特征提取的目的,可應(yīng)用于物體識別、VR、AR、表面探傷、醫(yī)學(xué)診斷等重要領(lǐng)域。
技術(shù)領(lǐng)域
本發(fā)明涉及一種基于可見光單圖像的弱紋理表面微結(jié)構(gòu)特征提取方法,屬于圖像處理技術(shù)領(lǐng)域。
背景技術(shù)
特征提取是計算機視覺實現(xiàn)場景理解和認(rèn)知任務(wù)中不可逾越的一步。盡管特征提取是一個古老的話題,國內(nèi)外諸多學(xué)者在此領(lǐng)域也做出了巨大的貢獻(xiàn),但是對可見光圖像的弱紋理表面區(qū)域特征識別與提取仍然是一大難點。弱紋理表面區(qū)域是指在顏色、明暗、線條等特征變化的可視效果不明顯或者無可視性的區(qū)域。日常生活中存在著大量的弱紋理表面區(qū)域,如純色桌面、地面和墻面等。眾多復(fù)雜因素相互影響所致,其中光的入射角、反射角、觀測角的實時變化,光波頻率和強度對物體表面的相互作用,以及物體表面微幾何結(jié)構(gòu)的各向異性等,導(dǎo)致其表面特征難以提取。
由于RGB圖像獲取的快捷性和普適性,產(chǎn)生了眾多基于該類圖像的區(qū)域紋理特征提取方法,可見光圖像的弱紋理表面區(qū)域特征提取方法概括起來包括兩類:區(qū)域直接特征提取方法和區(qū)域間接特征提取方法。區(qū)域直接特征提取方法又可包括傳統(tǒng)特征提取法和深度學(xué)習(xí)法,區(qū)域間接特征提取方法包括深度圖法和周邊輔助法。
傳統(tǒng)特征提取法使用數(shù)學(xué)變換、統(tǒng)計學(xué)、模板匹配等方法,試圖尋找像素和特征之間的映射關(guān)系,以此建立特征描述子,代表方法如尺度不變特征變換(Scale-InvariantFeature Tsransform,SIFT)、定向快速旋轉(zhuǎn)BRIEF特征變換(Oriented Fast and RotatedBRIEF,ORB)、小波變換、梯度直方圖、隨機場法等。對于一般宏觀場景物體的特征提取,傳統(tǒng)方法已經(jīng)能有效解決并得到了廣泛應(yīng)用,但針對弱紋理表面區(qū)域,由于傳統(tǒng)方法離不開灰度差異或梯度的求解策略,而弱紋理表面的灰度差或梯度差微小,直接求解時會陷入局部極值,無法得到滿足實際約束條件的解,不能精確計算到能夠反映出微觀差異的級別,從而導(dǎo)致了該類方法的無效性。
深度學(xué)習(xí)法(如文獻(xiàn)Cimpoi,Mircea.Deep Filter Banks for TextureRecognition,Description,and Segmentation[J].International Journal of ComputerVision,2016,118(1):65-94;Mustafa.Ground Texture Classification withDeep Learning[C].Proc.of IEEE Signal Processing and CommunicationsApplications Conference,2018:1-4),尤其是卷積神經(jīng)網(wǎng)絡(luò)(Convolutional NeuralNetwork,CNN),通過多個卷積層在輸入圖像的整個區(qū)域上以較小的跨度對內(nèi)核進行卷積,得到紋理的特征向量。雖然深度學(xué)習(xí)法能學(xué)習(xí)到人工無法定義的、隱藏的紋理特征,但是非常依賴樣本訓(xùn)練,由于弱紋理表面區(qū)域的特征本身不明顯甚至不可觀察,導(dǎo)致人工標(biāo)注極其困難,極大限制了機器學(xué)習(xí)的準(zhǔn)確性和泛化性。
深度圖法(如文獻(xiàn)Q.Luming,L.Honggao,L.Jieqing,et al.Feature Fusion ofICP-AES,UV-Vis and FT-MIR for Origin Traceability of Boletus delis Mushroomsin Combination with Chemometrics[J].Sensors,2018,18(1):241)基于直接測量物體表面與傳感器(如TOF、超聲波、激光等)之間的距離,獲得物體表面的近似形貌,但該類方法這只適用于相對宏觀的物體或場景區(qū)域特征的提取,不適用于只能通過微小凹凸變化來描述特征的弱紋理表面區(qū)域,加之噪聲和光照的干擾,導(dǎo)致其精度較低甚至無效。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于江南大學(xué),未經(jīng)江南大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210874829.9/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 彩色圖像和單色圖像的圖像處理
- 圖像編碼/圖像解碼方法以及圖像編碼/圖像解碼裝置
- 圖像處理裝置、圖像形成裝置、圖像讀取裝置、圖像處理方法
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序以及圖像解碼程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序、以及圖像解碼程序
- 圖像形成設(shè)備、圖像形成系統(tǒng)和圖像形成方法
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序





