[發(fā)明專利]人臉參數(shù)識別模型的訓(xùn)練方法、人臉參數(shù)的識別方法有效
| 申請?zhí)枺?/td> | 202011065623.9 | 申請日: | 2020-09-30 |
| 公開(公告)號: | CN112200236B | 公開(公告)日: | 2023-08-11 |
| 發(fā)明(設(shè)計)人: | 宋新慧;袁燚;范長杰;胡志鵬 | 申請(專利權(quán))人: | 網(wǎng)易(杭州)網(wǎng)絡(luò)有限公司 |
| 主分類號: | G06V10/774 | 分類號: | G06V10/774;G06V40/16 |
| 代理公司: | 北京超成律師事務(wù)所 11646 | 代理人: | 張芮 |
| 地址: | 310052 浙江省杭州*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 參數(shù) 識別 模型 訓(xùn)練 方法 | ||
本申請?zhí)峁┮环N人臉參數(shù)識別模型的訓(xùn)練方法及人臉參數(shù)的識別方法,訓(xùn)練方法包括:提取第一人臉圖像對應(yīng)的第一特征;將第一特征輸入待訓(xùn)練的人臉參數(shù)回歸器,獲得第一人臉圖像對應(yīng)的第一人臉參數(shù);第一人臉參數(shù)包括表情預(yù)測參數(shù)和身份預(yù)測參數(shù);根據(jù)表情預(yù)測參數(shù)和身份預(yù)測參數(shù)重構(gòu)第二人臉圖像、根據(jù)表情預(yù)測參數(shù)與基準(zhǔn)人臉身份參數(shù)重構(gòu)第三人臉圖像以及根據(jù)身份預(yù)測參數(shù)與基準(zhǔn)表情參數(shù)重構(gòu)第四人臉圖像;根據(jù)第一人臉圖像分別與第二人臉圖像、第三人臉圖像以及第四人臉圖像之間的函數(shù)損失,調(diào)整人臉參數(shù)回歸器的參數(shù),獲得人臉參數(shù)識別模型??朔藰颖緮?shù)據(jù)不足,樣本數(shù)據(jù)獲取難度大,人臉參數(shù)識別模型準(zhǔn)確性不高的問題。
技術(shù)領(lǐng)域
本申請涉及圖像處理技術(shù)領(lǐng)域,特別涉及一種人臉參數(shù)識別模型的訓(xùn)練方法、人臉參數(shù)的識別方法。
背景技術(shù)
在計算機(jī)視覺領(lǐng)域,面部表情分析是一個重要的課題。自動的面部表情分析可以應(yīng)用于很多領(lǐng)域,比如人機(jī)交互,行為研究,表情遷移和心理學(xué)領(lǐng)域。眾所周知的,大多數(shù)學(xué)者都用一套面部運(yùn)動行為編碼系統(tǒng)(FACS)來描述面部表情。這個系統(tǒng)由Ekman和Friesen在1978被提出。這個系統(tǒng)描述人臉肌肉的移動,每一維參數(shù)表示一個面部運(yùn)動單元的運(yùn)動,面部表情可以由面部運(yùn)動單元組合而成。面部運(yùn)動是面部一個微小的運(yùn)動,再加上頭部姿態(tài)、身份和光照等的影響,面部運(yùn)動單元估計是一個很難的課題。除此之外面部運(yùn)動單元的標(biāo)注數(shù)據(jù)非常的少,目前有的數(shù)據(jù)也都是正面圖像,例如:CK+,MMI和DISFA。另外,面部運(yùn)動單元的標(biāo)注需要專家并且是耗時的行為。
近幾年來,深度學(xué)習(xí)在很多領(lǐng)域取得了顯著的表現(xiàn)。在面部運(yùn)動單元預(yù)測方面,也有很多基于深度學(xué)習(xí)的方法。它們分為半監(jiān)督的和有監(jiān)督的方法。基于半監(jiān)督的方法一般利用人臉表情識別標(biāo)簽和先驗知識做驅(qū)動。這些方法導(dǎo)致的結(jié)果會由先驗知識限制面部運(yùn)動單元的自由組合,導(dǎo)致結(jié)果不準(zhǔn)確。有監(jiān)督的方法就需要收集大量準(zhǔn)確的標(biāo)注數(shù)據(jù),然而目前這類數(shù)據(jù)缺失并且面部運(yùn)動單元數(shù)據(jù)獲取難度大,所以一般都是基于某個數(shù)據(jù)集預(yù)測的結(jié)果,泛化能力差,難以運(yùn)用到實(shí)際中。
發(fā)明內(nèi)容
本申請實(shí)施例提供了一種人臉參數(shù)識別模型的訓(xùn)練方法,無需大量的標(biāo)注數(shù)據(jù),提高人臉參數(shù)識別模型的準(zhǔn)確性。
本申請實(shí)施例提供了一種人臉參數(shù)識別模型的訓(xùn)練方法,包括:
提取第一人臉圖像對應(yīng)的第一特征;
將所述第一特征輸入待訓(xùn)練的人臉參數(shù)回歸器,獲得所述第一人臉圖像對應(yīng)的第一人臉參數(shù);所述第一人臉參數(shù)包括表情預(yù)測參數(shù)和身份預(yù)測參數(shù);
根據(jù)所述表情預(yù)測參數(shù)和身份預(yù)測參數(shù)重構(gòu)第二人臉圖像、根據(jù)所述表情預(yù)測參數(shù)與基準(zhǔn)人臉身份參數(shù)重構(gòu)第三人臉圖像以及根據(jù)所述身份預(yù)測參數(shù)與基準(zhǔn)表情參數(shù)重構(gòu)第四人臉圖像;
根據(jù)所述第一人臉圖像分別與所述第二人臉圖像、第三人臉圖像以及第四人臉圖像之間的函數(shù)損失,調(diào)整所述人臉參數(shù)回歸器的參數(shù),獲得人臉參數(shù)識別模型。
在一實(shí)施例中,在獲得所述第一人臉圖像對應(yīng)的第一人臉參數(shù)之后,所述方法還包括:
根據(jù)基準(zhǔn)臉圖像的基準(zhǔn)人臉參數(shù)與所述第一人臉圖像的第一人臉參數(shù)之間的函數(shù)損失,調(diào)整所述人臉參數(shù)回歸器的參數(shù)。
在一實(shí)施例中,所述基準(zhǔn)人臉參數(shù)包括基準(zhǔn)表情參數(shù)和基準(zhǔn)人臉身份參數(shù),所述根據(jù)基準(zhǔn)臉圖像的基準(zhǔn)人臉參數(shù)與所述第一人臉圖像的第一人臉參數(shù)之間的函數(shù)損失,調(diào)整所述人臉參數(shù)回歸器的參數(shù),包括:
計算所述基準(zhǔn)表情參數(shù)與所述表情預(yù)測參數(shù)之間的第一距離,基準(zhǔn)人臉身份參數(shù)與所述身份預(yù)測參數(shù)之間的第二距離;
根據(jù)所述第一距離和第二距離,計算參數(shù)損失函數(shù)值。
根據(jù)所述參數(shù)損失函數(shù)值,調(diào)整所述人臉參數(shù)回歸器的參數(shù)。
在一實(shí)施例中,在獲得所述第一人臉圖像對應(yīng)的第一人臉參數(shù)之后,所述方法還包括:
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于網(wǎng)易(杭州)網(wǎng)絡(luò)有限公司,未經(jīng)網(wǎng)易(杭州)網(wǎng)絡(luò)有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011065623.9/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





