[發(fā)明專利]基于對抗學(xué)習(xí)的角度魯棒的個性化人臉表情識別方法有效
| 申請?zhí)枺?/td> | 202010136966.3 | 申請日: | 2020-03-02 |
| 公開(公告)號: | CN111382684B | 公開(公告)日: | 2022-09-06 |
| 發(fā)明(設(shè)計)人: | 王上飛;王燦 | 申請(專利權(quán))人: | 中國科學(xué)技術(shù)大學(xué) |
| 主分類號: | G06V40/16 | 分類號: | G06V40/16;G06V10/774;G06V10/82;G06N3/04 |
| 代理公司: | 安徽省合肥新安專利代理有限責(zé)任公司 34101 | 代理人: | 陸麗莉 |
| 地址: | 230026 安*** | 國省代碼: | 安徽;34 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 對抗 學(xué)習(xí) 角度 個性化 表情 識別 方法 | ||
1.一種基于對抗學(xué)習(xí)的角度魯棒的個性化人臉表情識別方法,其特征是按如下步驟進行:
步驟1、對包含具有N類人臉表情圖像的數(shù)據(jù)庫進行圖像預(yù)處理:
使用MTCNN神經(jīng)網(wǎng)絡(luò)算法對數(shù)據(jù)庫中所有人臉表情圖像進行人臉檢測與矯正,從而得到歸一化后的人臉圖像數(shù)據(jù)集,并作為樣本集;
以所述數(shù)據(jù)庫中的個體為劃分基準,將所述樣本集進行隨機劃分,得到源域數(shù)據(jù)集S和目標(biāo)域數(shù)據(jù)集T;令源域數(shù)據(jù)集S中的任意一個樣本為xs,源域中任意一個樣本xs的表情標(biāo)注為ys,源域中任意一個樣本xs的角度標(biāo)注為ps;令目標(biāo)域數(shù)據(jù)集T中的任意一個樣本為xt;
步驟2、構(gòu)建基于對抗學(xué)習(xí)的特征解耦與領(lǐng)域自適應(yīng)網(wǎng)絡(luò)模型,并包括:源域特征提取器Es和目標(biāo)域特征提取器Et,角度分類器Dp和表情分類器R,角度域判別器Ddp和表情域判別器Dde,源域圖像生成器Gs和目標(biāo)域圖像生成器Gt;
所述源域特征提取器Es和目標(biāo)域特征提取器Et具有相同的網(wǎng)絡(luò)結(jié)構(gòu),依次均由一個輸入卷積層、M個下采樣卷積層、Q個殘差卷積層、兩個含有W層卷積層的分支構(gòu)成;且每個卷積層后均接入一個實例正則化層和ReLU激活函數(shù);
所述角度分類器Dp、表情分類器R、角度域判別器Ddp和表情域判別器Dde均是由H層的全連接網(wǎng)絡(luò)構(gòu)成;
所述源域圖像生成器Gs和目標(biāo)域圖像生成器Gt具有相同的網(wǎng)絡(luò)結(jié)構(gòu),依次均由一個輸入卷積層、J個上采樣反卷積層和一個輸出卷積層構(gòu)成,對于輸出卷積層前的每個卷積層,其后均接入一個實例正則化層和ReLU激活函數(shù),對于輸出卷積層,其后接入一個Tanh激活函數(shù);
令基于對抗學(xué)習(xí)的特征解耦與領(lǐng)域自適應(yīng)網(wǎng)絡(luò)模型中的所有卷積層、反卷積層、全連接層均使用高斯分布進行權(quán)值初始化;
步驟3、基于對抗學(xué)習(xí)的特征解耦與領(lǐng)域自適應(yīng)網(wǎng)絡(luò)模型的四個學(xué)習(xí)策略,包括有監(jiān)督學(xué)習(xí)策略、對抗領(lǐng)域自適應(yīng)學(xué)習(xí)策略、交叉對抗特征解耦學(xué)習(xí)策略以及圖像重構(gòu)學(xué)習(xí)策略;
步驟3.1、有監(jiān)督學(xué)習(xí)策略:
步驟3.3.1、所述源域中任意一個樣本xs輸入所述源域特征提取器Es中,得到兩種特征向量其中,表示源域中樣本xs的表情相關(guān)特征,fsp表示源域中樣本xs的角度相關(guān)特征;
步驟3.3.2、所述源域中樣本xs的角度相關(guān)特征輸入所述角度分類器Dp中進行角度識別,得到源域中樣本xs的角度類別;
利用式(1)建立角度識別的損失函數(shù)lp(Es,Dp):
式(1)中,Sup(·)表示有監(jiān)督損失函數(shù);
步驟3.3.3、所述源域中樣本xs的表情相關(guān)特征輸入所述表情分類器R中進行表情識別,得到源域中樣本xs的表情類別;
利用式(2)建立表情識別的損失函數(shù)le(Es,R):
步驟3.2、對抗領(lǐng)域自適應(yīng)學(xué)習(xí)策略:
步驟3.2.1、所述目標(biāo)域中任意一個樣本xt輸入所述目標(biāo)域特征提取器Et中,得到兩種特征向量其中,表示目標(biāo)域中樣本xt的表情相關(guān)特征,ftp表示目標(biāo)域中樣本xt的角度相關(guān)特征;
步驟3.2.2、所述源域中樣本xs的角度相關(guān)特征或目標(biāo)域中樣本xt的角度相關(guān)特征ftp輸入所述角度域判別器Ddp,得到角度相關(guān)特征為真或表情相關(guān)特征ftp為假的識別結(jié)果;
步驟3.2.3、所述源域中樣本xs的表情相關(guān)特征或目標(biāo)域中樣本xt的表情相關(guān)特征輸入所述表情域判別器Dde中,得到表情相關(guān)特征為真或表情相關(guān)特征fte為假的識別結(jié)果;
步驟3.2.4、利用式(3)建立對抗學(xué)習(xí)損失函數(shù)ladv(Es,Et,Ddp,Dde):
步驟3.3、對抗特征解耦學(xué)習(xí)策略:
步驟3.3.1、所述源域中樣本xs的角度相關(guān)特征輸入所述表情分類器R中,得到源域中樣本xs的表情分類結(jié)果;
所述源域中樣本xs的表情相關(guān)特征fse輸入角度分類器Dp中,得到所述源域中樣本xs的角度分類結(jié)果;
步驟3.3.2、利用式(4)建立表情分類器R對于角度相關(guān)特征的分類以及角度分類器Dp對于表情相關(guān)特征的分類的損失函數(shù)
步驟3.4、圖像重構(gòu)學(xué)習(xí)策略:
步驟3.4.1、所述源域中樣本xs的角度相關(guān)特征和目標(biāo)域中樣本xt的表情相關(guān)特征進行組合并輸入所述源域圖像生成器Gs中,生成所述源域中的重構(gòu)圖像
步驟3.4.2、目標(biāo)域中樣本xt的角度相關(guān)特征ftp和源域中樣本xs的表情相關(guān)特征進行組合并輸入所述目標(biāo)域圖像生成器Gt中,生成所述目標(biāo)域中的重構(gòu)圖像
步驟3.4.3、利用式(5)建立重構(gòu)圖像的約束lclc(Es,Et,Gs,Gt):
式(5)中,x′s表示源域數(shù)據(jù)集S中的另一個樣本,且與樣本xs擁有相同的角度標(biāo)注,與樣本xt擁有相同的表情標(biāo)注;x′t表示目標(biāo)域數(shù)據(jù)集T中的另一個樣本,且與樣本xt擁有相同的角度標(biāo)注,與樣本xs擁有相同的表情標(biāo)注;
步驟4、構(gòu)造總體損失函數(shù),使用交替迭代優(yōu)化的方式進行對抗學(xué)習(xí)的特征解耦與領(lǐng)域自適應(yīng)網(wǎng)絡(luò)模型的學(xué)習(xí),從而得到最優(yōu)人臉表情識別模型:
步驟4.1、利用式(6)構(gòu)建總的目標(biāo)函數(shù):
式(6)中,α、β、η和λ均為權(quán)重因子;
步驟4.2、設(shè)置總的訓(xùn)練步數(shù)為K1,當(dāng)前總的訓(xùn)練步數(shù)為k1;
設(shè)置內(nèi)部三處優(yōu)化步數(shù)分別為K2,K3和K4,對應(yīng)的當(dāng)前優(yōu)化步數(shù)分別為k2,k3和k4;
設(shè)置訓(xùn)練中每次采樣的樣本數(shù)為B;
初始化k1,k2,k3,k4均為“0”;
步驟4.3、從源域數(shù)據(jù)集S和目標(biāo)域數(shù)據(jù)集T中分別進行外部第k1次內(nèi)部第k2次的隨機獲取B個樣本并作為外部第k1次內(nèi)部第k2次迭代的源域訓(xùn)練樣本和目標(biāo)域訓(xùn)練樣本;
步驟4.4、利用式(7)優(yōu)化所述源域特征提取器Es和表情分類器R,得到外部第k1次內(nèi)部第k2次迭代的相應(yīng)的梯度
步驟4.5、利用式(8)優(yōu)化源域特征提取器Es,得到外部第k1次內(nèi)部第k2次迭代的相應(yīng)的梯度
步驟4.6、利用式(9)優(yōu)化源域特征提取器Es和目標(biāo)域域特征提取器Et,得到外部第k1次內(nèi)部第k2次迭代的相應(yīng)的梯度
步驟4.7、將k2+1賦值給k2后,判斷k2≥K2是否成立,若成立,則執(zhí)行步驟4.8,否則返回步驟4.3順序執(zhí)行;
步驟4.8、從源域數(shù)據(jù)集S和目標(biāo)域數(shù)據(jù)集T中分別進行外部第k1次內(nèi)部第k3次的隨機獲取B個樣本并作為外部第k1次內(nèi)部第k3次迭代的源域訓(xùn)練樣本和目標(biāo)域訓(xùn)練樣本;
步驟4.9、利用式(10)優(yōu)化源域特征提取器Es、目標(biāo)域域特征提取器Et、源域圖像生成器Gs和目標(biāo)域圖像生成器Gt,得到外部第k1次內(nèi)部第k3次迭代的相應(yīng)的梯度
步驟4.10、將k3+1賦值給k3后,判斷k3≥K3是否成立,若成立,則執(zhí)行步驟4.11,否則返回步驟4.8順序執(zhí)行;
步驟4.11、從源域數(shù)據(jù)集S和目標(biāo)域數(shù)據(jù)集T中分別進行外部第k1次內(nèi)部第k4次的隨機獲取B個樣本并作為外部第k1次內(nèi)部第k4次迭代的源域訓(xùn)練樣本和目標(biāo)域訓(xùn)練樣本;
步驟4.12、利用式(11)優(yōu)化源域特征提取器Es和角度分類器Dp,得到外部第k1次內(nèi)部第k4次迭代的相應(yīng)的梯度
步驟4.13、利用式(12)優(yōu)化表情域判別器Dde和角度域判別器Ddp,得到外部第k1次內(nèi)部第k4次迭代的相應(yīng)的梯度
步驟4.14、將k4+1賦值給k4后,判斷k4≥K4是否成立,若成立,則執(zhí)行步驟4.15,否則返回步驟4.11順序執(zhí)行;
步驟4.15、將k1+1賦值給k1后,判斷k1≥K1是否成立或算法是否收斂,若是,則表示訓(xùn)練結(jié)束并得到最優(yōu)人臉表情識別模型,用于實現(xiàn)人臉表情的分類;否則返回步驟4.3順序執(zhí)行。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于中國科學(xué)技術(shù)大學(xué),未經(jīng)中國科學(xué)技術(shù)大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010136966.3/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 農(nóng)業(yè)信息對抗資源目標(biāo)規(guī)劃最優(yōu)分配方法
- 農(nóng)業(yè)信息對抗資源模糊規(guī)劃最優(yōu)分配方法
- 農(nóng)業(yè)信息對抗資源線性規(guī)劃最優(yōu)分配方法
- 基于聚類數(shù)據(jù)挖掘的對抗行為搜索算法
- 面向多種對抗圖片攻擊的協(xié)同免疫防御方法
- 一種自適應(yīng)對抗強度的對抗訓(xùn)練方法
- 對抗攻擊模型的訓(xùn)練方法及裝置
- 對抗樣本的生成方法和裝置
- 多樣本對抗擾動生成方法、裝置、存儲介質(zhì)和計算設(shè)備
- 一種無人集群協(xié)同博弈對抗的控制方法及系統(tǒng)
- 根據(jù)用戶學(xué)習(xí)效果動態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個人化學(xué)習(xí)服務(wù)的方法
- 漸進式學(xué)習(xí)管理方法及漸進式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲介質(zhì)
- 基于強化學(xué)習(xí)的自適應(yīng)移動學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲介質(zhì)
- 游戲?qū)W習(xí)效果評測方法及系統(tǒng)





