[發(fā)明專利]一種實(shí)時(shí)表情分析方法及其裝置有效
| 申請(qǐng)?zhí)枺?/td> | 201911393468.0 | 申請(qǐng)日: | 2019-12-30 |
| 公開(公告)號(hào): | CN111178263B | 公開(公告)日: | 2023-09-05 |
| 發(fā)明(設(shè)計(jì))人: | 海克洪;王迎曙 | 申請(qǐng)(專利權(quán))人: | 武漢美和易思數(shù)字科技有限公司 |
| 主分類號(hào): | G06V40/16 | 分類號(hào): | G06V40/16;G06V20/52;G06V10/764;G06V10/774;G06V10/82;G06N3/0464;G06Q50/20 |
| 代理公司: | 武漢紅觀專利代理事務(wù)所(普通合伙) 42247 | 代理人: | 陳凱 |
| 地址: | 430000 湖北省武漢市東湖新技術(shù)*** | 國省代碼: | 湖北;42 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 實(shí)時(shí) 表情 分析 方法 及其 裝置 | ||
1.一種實(shí)時(shí)表情分析方法,其特征在于:包括以下步驟:
S1、建立用于存儲(chǔ)人臉圖像的人臉數(shù)據(jù)庫,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò),由卷積神經(jīng)網(wǎng)絡(luò)對(duì)人臉數(shù)據(jù)庫中的人臉圖像數(shù)據(jù)進(jìn)行訓(xùn)練獲得表情識(shí)別模型;
所述S1中的卷積神經(jīng)網(wǎng)絡(luò)包含5個(gè)卷積層和3個(gè)全連接層;
第一卷積層對(duì)輸入的圖像做過濾處理,第二卷積層的輸入連接到第一卷積層的輸出,其對(duì)第一卷積層輸出的圖像做過濾處理;第三卷積層的輸入連接到第二卷積層的輸出,其對(duì)第二卷積層的輸出做卷積處理;第四卷積層的輸入連接到第三卷積層的輸出,其對(duì)第三卷積層的輸出做卷積處理;第五卷積層的輸入連接到第四卷積層的輸出,其對(duì)第四卷積層的輸出做卷積處理;第一全連接層連接到第五卷積層的輸出,第二全連接層將第一全連接層的輸出作為輸入,第三全連接層將第二全連接層的輸出作為輸入;
所述第一卷積層具有96個(gè)大小為11×11的內(nèi)核,第二卷積層具有128個(gè)5×5×48的內(nèi)核,第三卷積層具有192個(gè)大小為?3×3×128的內(nèi)核,第四卷積層具有?192?個(gè)大小為?3×3×192?的內(nèi)核,第五卷積層具有?128?個(gè)大小為?3×3×192的內(nèi)核,3個(gè)全連接層均具有1024個(gè)神經(jīng)元;
增加訓(xùn)練圖像的數(shù)量,提高由卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練獲取到的表情識(shí)別模型的檢測精度,將訓(xùn)練圖像進(jìn)行灰度處理得到灰色訓(xùn)練圖像,將灰色訓(xùn)練圖像以角度旋轉(zhuǎn)-15°、-10°、-5°、+?5°、+?10°和+?15°,以及水平翻轉(zhuǎn),獲得14張圖像,通過該方法增加人臉數(shù)據(jù)庫存儲(chǔ)圖像的數(shù)量,并使用該數(shù)據(jù)庫的訓(xùn)練改進(jìn)卷積神經(jīng)網(wǎng)絡(luò);
S2、使用OpenCV檢測人臉,將檢測到的人臉特征圖像放入表情識(shí)別模型中,表情識(shí)別模型根據(jù)人臉特征圖像內(nèi)容給出每種表情的概率,選擇概率最大的表情為結(jié)果表情,將該結(jié)果表情與時(shí)間標(biāo)簽關(guān)聯(lián);
S3、構(gòu)建結(jié)果表情與學(xué)情的映射關(guān)系;
所述S3中表情與學(xué)情的映射關(guān)系為:將學(xué)生對(duì)當(dāng)前講解接收程度按照百分比劃分,當(dāng)表情為茫然,對(duì)應(yīng)的學(xué)情為學(xué)生對(duì)當(dāng)前講解的接收程度為10%;當(dāng)表情為疑惑,對(duì)應(yīng)的學(xué)情為學(xué)生對(duì)當(dāng)前講解的接收程度為50%;當(dāng)表情為嚴(yán)肅,對(duì)應(yīng)的學(xué)情為學(xué)生對(duì)當(dāng)前講解的接收程度為70%;當(dāng)表情為淡然,對(duì)應(yīng)的學(xué)情為學(xué)生對(duì)當(dāng)前講解的接收程度為90%;對(duì)應(yīng)的學(xué)情喜悅,對(duì)應(yīng)的學(xué)情為學(xué)生對(duì)當(dāng)前講解的接收程度為100%;
S4、根據(jù)結(jié)果表情獲知學(xué)生的學(xué)情信息,分析各類結(jié)果表情的數(shù)量和總?cè)藬?shù)的關(guān)系,得出學(xué)生課堂整體學(xué)情情況;根據(jù)時(shí)間段內(nèi),個(gè)體學(xué)生的結(jié)果表情種類和數(shù)量,分析個(gè)體學(xué)生的課堂學(xué)情情況;
其中,將個(gè)人實(shí)時(shí)表情與時(shí)間標(biāo)簽相關(guān)聯(lián),建立時(shí)間與表情的坐標(biāo)圖。
2.如權(quán)利要求1所述的一種實(shí)時(shí)表情分析方法,其特征在于:所述S2中使用OpenCV?的Haar特征級(jí)聯(lián)分類器檢測和切割人臉,所述Haar特征級(jí)聯(lián)分類器返回圖片中的人臉位置信息,得到人臉位置信息后便可將圖片中所有人臉圖像提取出,并將提取出的人臉圖像轉(zhuǎn)換為通道灰度圖像。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于武漢美和易思數(shù)字科技有限公司,未經(jīng)武漢美和易思數(shù)字科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201911393468.0/1.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 實(shí)時(shí)解碼系統(tǒng)與實(shí)時(shí)解碼方法
- 實(shí)時(shí)穩(wěn)定
- 實(shí)時(shí)監(jiān)控裝置、實(shí)時(shí)監(jiān)控系統(tǒng)以及實(shí)時(shí)監(jiān)控方法
- 實(shí)時(shí)或準(zhǔn)實(shí)時(shí)流傳輸
- 實(shí)時(shí)或準(zhǔn)實(shí)時(shí)流傳輸
- 實(shí)時(shí)通信方法和實(shí)時(shí)通信系統(tǒng)
- 實(shí)時(shí)更新
- 實(shí)時(shí)內(nèi)核
- 用于通信網(wǎng)絡(luò)的網(wǎng)絡(luò)設(shè)備及相關(guān)方法
- 實(shí)時(shí)量化方法及實(shí)時(shí)量化系統(tǒng)
- 獲取表情含義的方法和裝置
- 合成臉部表情圖像的方法和裝置
- 用于移動(dòng)終端的圖形用戶界面
- 表情識(shí)別方法、裝置、終端及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)
- 一種基于微表情的圖像識(shí)別方法、裝置以及相關(guān)設(shè)備
- 三維動(dòng)畫角色表情生成方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 表情問答庫的構(gòu)建方法、表情搜索方法、裝置及存儲(chǔ)介質(zhì)
- 一種基于重構(gòu)跨域視頻生成對(duì)抗網(wǎng)絡(luò)模型的微表情識(shí)別方法
- 一種虛擬角色表情展現(xiàn)的方法和裝置
- 表情包的處理方法、裝置及智能設(shè)備
- 一種數(shù)據(jù)庫讀寫分離的方法和裝置
- 一種手機(jī)動(dòng)漫人物及背景創(chuàng)作方法
- 一種通訊綜合測試終端的測試方法
- 一種服裝用人體測量基準(zhǔn)點(diǎn)的獲取方法
- 系統(tǒng)升級(jí)方法及裝置
- 用于虛擬和接口方法調(diào)用的裝置和方法
- 線程狀態(tài)監(jiān)控方法、裝置、計(jì)算機(jī)設(shè)備和存儲(chǔ)介質(zhì)
- 一種JAVA智能卡及其虛擬機(jī)組件優(yōu)化方法
- 檢測程序中方法耗時(shí)的方法、裝置及存儲(chǔ)介質(zhì)
- 函數(shù)的執(zhí)行方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)





