[發(fā)明專利]一種基于通道相關(guān)式PCANet的低分辨率圖像識(shí)別方法有效
| 申請(qǐng)?zhí)枺?/td> | 202010147013.7 | 申請(qǐng)日: | 2020-03-05 |
| 公開(公告)號(hào): | CN111488906B | 公開(公告)日: | 2023-07-25 |
| 發(fā)明(設(shè)計(jì))人: | 李小薪;徐晨雅;胡海根;周乾偉;郝鵬翼 | 申請(qǐng)(專利權(quán))人: | 浙江工業(yè)大學(xué) |
| 主分類號(hào): | G06V10/764 | 分類號(hào): | G06V10/764;G06V10/77;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 杭州斯可睿專利事務(wù)所有限公司 33241 | 代理人: | 王利強(qiáng) |
| 地址: | 310014 浙江省*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 通道 相關(guān) pcanet 分辨率 圖像 識(shí)別 方法 | ||
一種基于通道相關(guān)式PCANet的低分辨率圖像識(shí)別方法,特征提取過程中,對(duì)待識(shí)別的低分辨圖像進(jìn)行雙三次插值,使得插值之后的圖像與訓(xùn)練集圖像有相同的分辨率;采用通道相關(guān)式卷積對(duì)插值后的圖像進(jìn)行深度卷積濾波,得到輸入圖像的高維特征圖;沿著特征圖的通道方向,以一定的步長,對(duì)特征圖進(jìn)行壓縮編碼,得到輸入圖像的模式圖;從模式圖中提取局部柱狀圖特征,將由各模式圖生成的局部柱狀圖特征連接起來,形成最終的高維柱狀圖特征;分類過程中,在高維柱狀圖特征空間中,基于卡方距離獲取待識(shí)別圖像到各訓(xùn)練圖像的距離度量;獲取具有最小距離度量的訓(xùn)練樣本所對(duì)應(yīng)的類標(biāo),作為待識(shí)別圖像的類標(biāo)。本發(fā)明能夠有效識(shí)別低分辨率輸入圖像。
技術(shù)領(lǐng)域
本發(fā)明涉及圖像處理和模式識(shí)別領(lǐng)域,尤其是待識(shí)別圖像與訓(xùn)練圖像有較大差異的魯棒圖像識(shí)別,主要用于處理和識(shí)別現(xiàn)實(shí)中的圖像。
背景技術(shù)
近來,在計(jì)算機(jī)視覺和圖像識(shí)別領(lǐng)域中,以卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?NeuralNetworks,CNN)為代表的深度神經(jīng)網(wǎng)絡(luò)(Deep?Neural?Network,DNN)取得了極大的成功,在一些公開的數(shù)據(jù)集上,前沿的深度學(xué)習(xí)方法的分類能力甚至超過了人類,例如:在LFW人臉數(shù)據(jù)庫上的認(rèn)證準(zhǔn)確率,在ImageNet上的圖像分類準(zhǔn)確率,以及在MNIST上的手寫數(shù)字識(shí)別準(zhǔn)確率等。然而,在實(shí)際中,待識(shí)別圖像在“分布”或“結(jié)構(gòu)”上往往與訓(xùn)練圖像有較大的差異,這種差異會(huì)導(dǎo)致DNN出現(xiàn)較大規(guī)模的識(shí)別錯(cuò)誤,在深度學(xué)習(xí)領(lǐng)域中,這一現(xiàn)象被稱為“協(xié)變量偏移(Covariate?Shift)”。在異協(xié)變量偏移問題中,待識(shí)別圖像與訓(xùn)練圖像在分辨率上的差異尤為顯著。通常情況下,待識(shí)別圖像的分辨率遠(yuǎn)遠(yuǎn)低于訓(xùn)練圖像的分辨率,從而導(dǎo)致現(xiàn)有的DNN模型出現(xiàn)性能崩潰。
發(fā)明內(nèi)容
為了克服已有圖像識(shí)別方法由于協(xié)變量偏移所引發(fā)的圖像識(shí)別準(zhǔn)確率較低、可行性較差的不足,本發(fā)明提供了一種準(zhǔn)確性高、可行性好的基于通道相關(guān)式PCANet(ChannelIndependent?PCANet,CIPCANet)的魯棒圖像識(shí)別方法,CIPCANet能夠有效克服由于分辨率差異所引發(fā)的識(shí)別問題,能夠大幅度提升圖像識(shí)別性能。
本發(fā)明解決其技術(shù)問題所采用的技術(shù)方案是:
一種基于通道相關(guān)式PCANet的低分辨率圖像識(shí)別方法,包括以下步驟:
步驟1選取J張圖像A={A1,…,AJ}作為訓(xùn)練集,對(duì)應(yīng)的類別標(biāo)簽為Y={Y1,…,YK}為待識(shí)別圖像的集合,即測試集,這里,分別表示實(shí)數(shù)域上的具有C0∈{1,3}個(gè)通道的長寬為m×n和μ×v的圖像,且μ≤m,v≤n;
步驟2初始化參數(shù)和輸入數(shù)據(jù):令這里,用于指示網(wǎng)絡(luò)所處的階段,表示網(wǎng)絡(luò)處于訓(xùn)練階段,表示網(wǎng)絡(luò)處于測試階段;令l=0,這里,l用于指示輸入圖像或特征圖在網(wǎng)絡(luò)中的層數(shù);令其中,N=J,
步驟3由構(gòu)建矩陣其中,為的均值,表示從的第c個(gè)通道中抽取的第b∈{1,2,…,mn}個(gè)大小為k×k的特征塊,Vec(·)表示將矩陣?yán)鞛榱邢蛄康倪\(yùn)算;
步驟4如果網(wǎng)絡(luò)處于測試階段,則跳至步驟7,否則,執(zhí)行步驟5~步驟6;
步驟5計(jì)算的主方向其中,為協(xié)方差矩陣的第i個(gè)特征向量,對(duì)應(yīng)的特征值為λi,且
步驟6由V(l)獲取Cl+1(Cl+1≤k2Cl)個(gè)通道相關(guān)式濾波器組
步驟7將投影到W(l+1):并將中的元素按行重寫為:其中,
步驟8由計(jì)算特征圖X(l+1):其中,這里,表示將矩陣中的每一個(gè)列向量按列重新排列為大小為m×n的矩陣,并在通道方向上將各m×n的矩陣連接起來;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于浙江工業(yè)大學(xué),未經(jīng)浙江工業(yè)大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010147013.7/2.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 基于PCANet的人臉識(shí)別方法
- 基于聯(lián)合特征PCANet的宮頸細(xì)胞圖像識(shí)別方法
- 基于顯著性分析的PCANet圖像變化檢測方法
- 一種基于深度學(xué)習(xí)的多模醫(yī)學(xué)圖像非剛性配準(zhǔn)方法及系統(tǒng)
- 一種礦井突水激光誘導(dǎo)熒光光譜圖像識(shí)別方法
- 一種結(jié)合PCA和PCANet的駕駛疲勞特征提取方法
- 基于PCANet深度學(xué)習(xí)模型下的自動(dòng)分割方法
- 基于高維PCANet的魯棒圖像識(shí)別方法
- 基于PCANet的圖像分類方法和裝置
- 一種結(jié)合PCANet和遮擋定位的非配合人臉識(shí)別方法





