[發(fā)明專利]基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法有效
| 申請?zhí)枺?/td> | 201810293102.5 | 申請日: | 2018-04-04 |
| 公開(公告)號: | CN108509920B | 公開(公告)日: | 2022-04-26 |
| 發(fā)明(設(shè)計)人: | 田青;張文強;毛軍翔;沈傳奇 | 申請(專利權(quán))人: | 南京信息工程大學(xué) |
| 主分類號: | G06V40/16 | 分類號: | G06V40/16;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京蘇高專利商標事務(wù)所(普通合伙) 32204 | 代理人: | 柏尚春 |
| 地址: | 210044 江*** | 國省代碼: | 江蘇;32 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 cnn patch 通道 聯(lián)合 特征 選擇 學(xué)習(xí) 識別 方法 | ||
1.一種基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法,其特征在于,所述方法首先將原始人臉圖像分割成多張子圖像,每張子圖像再分離成多張通道圖像;然后為每張通道圖像構(gòu)建一個CNN網(wǎng)絡(luò)模型,輸入通道圖像進行識別;接下來首先將同一子圖像的多個通道神經(jīng)網(wǎng)絡(luò)進行連接,得到對應(yīng)多張子圖像的多個子圖像神經(jīng)網(wǎng)絡(luò),然后將多個子圖像神經(jīng)網(wǎng)絡(luò)進行連接,作為最終的模型識別結(jié)果;包括以下步驟:
S1、將原始人臉圖像分割為四個子圖像,分別為左眼子圖像、右眼子圖像、鼻子子圖像和嘴巴子圖像;
S2、對每個子圖像進行RGB通道分離,分別得到三個通道圖像,四個子圖像共得到12個通道圖像;
S3、為每個通道圖像構(gòu)建一個CNN網(wǎng)絡(luò)模型,稱為通道神經(jīng)網(wǎng)絡(luò),將通道圖像分別輸入對應(yīng)的通道神經(jīng)網(wǎng)絡(luò)進行識別,其中通道神經(jīng)網(wǎng)絡(luò)中每個通道包括三段依次連接的卷積層、歸一化層、池化層、激活層;
S4、針對每張子圖像,通過將不同通道神經(jīng)網(wǎng)絡(luò)的權(quán)值向量進行融合而將三個通道神經(jīng)網(wǎng)絡(luò)相互連接,形成一個子圖像神經(jīng)網(wǎng)絡(luò),四張子圖像得到四個子圖像神經(jīng)網(wǎng)絡(luò),其中將不同通道神經(jīng)網(wǎng)絡(luò)的權(quán)值向量進行融合采用組稀流算法,其約束方程如下所示:
其中y表示樣品的真實標簽,θ表示投影向量,z表示樣品矩陣,λ表示正則化參數(shù);
S5、將四個子圖像神經(jīng)網(wǎng)絡(luò)進行連接,連接的方法是將每個子圖像神經(jīng)網(wǎng)絡(luò)的識別結(jié)果加權(quán)相加,作為最終的模型識別結(jié)果。
2.根據(jù)權(quán)利要求1所述的基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法,其特征在于,所述步驟S1中,將原始人臉圖像進行分割采用Sift算法、Surf算法、Orb算法中的任一種。
3.根據(jù)權(quán)利要求1所述的基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法,其特征在于,所述步驟S2中RGB通道分離的方法為:讀取RGB圖像的圖像信息并保存成矩陣形式,該矩陣有三行,即三個向量,分別對應(yīng)R通道圖像、G通道圖像、B通道圖像的圖像信息,再將這三個向量分別保存成三張圖像,便分離出了三通道圖像。
4.根據(jù)權(quán)利要求1所述的基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法,其特征在于,所述組稀流算法約束方程添加到損失函數(shù)中的正則化項如下所示:
其中的d表示通道神經(jīng)網(wǎng)絡(luò)的權(quán)值向量的維度,wi表示w矩陣的第i行,分別來自于不同的通道神經(jīng)網(wǎng)絡(luò)。
5.根據(jù)權(quán)利要求1所述的基于CNN的多patch多通道聯(lián)合特征選擇學(xué)習(xí)的人臉識別方法,其特征在于,所述步驟S5中最終模型的輸出結(jié)果由下式得出:
式中的F(result)即為模型輸出的最終結(jié)果,其中p為子圖像的數(shù)量,fi表示第i個子圖像神經(jīng)網(wǎng)絡(luò)的識別結(jié)果,Hi表示權(quán)值參數(shù)。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于南京信息工程大學(xué),未經(jīng)南京信息工程大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810293102.5/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 圖像語義標注的設(shè)備和方法及其模型的生成方法和系統(tǒng)
- 使用卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字圖像處理
- 為數(shù)據(jù)庫確定卷積神經(jīng)網(wǎng)絡(luò)CNN模型的裝置和方法
- 確定卷積神經(jīng)網(wǎng)絡(luò)CNN模型的裝置和方法
- 采用嵌入式系統(tǒng)中的小規(guī)模卷積神經(jīng)網(wǎng)絡(luò)模塊的人臉檢測
- 針對深度通道和卷積神經(jīng)網(wǎng)絡(luò)圖像和格式使用相機設(shè)備的方法和系統(tǒng)
- 處理卷積神經(jīng)網(wǎng)絡(luò)的方法
- CNN加速器和電子設(shè)備
- 一種基于混合神經(jīng)網(wǎng)絡(luò)的腦電時空特征學(xué)習(xí)與情感分類方法
- 一種基于FPGA的深度學(xué)習(xí)加速方法





