[發(fā)明專利]基于助聽器的語音輸出優(yōu)化方法、服務(wù)器及存儲(chǔ)介質(zhì)在審
| 申請?zhí)枺?/td> | 202010036913.4 | 申請日: | 2020-01-14 |
| 公開(公告)號(hào): | CN111276162A | 公開(公告)日: | 2020-06-12 |
| 發(fā)明(設(shè)計(jì))人: | 不公告發(fā)明人 | 申請(專利權(quán))人: | 林澤珊 |
| 主分類號(hào): | G10L25/63 | 分類號(hào): | G10L25/63;G10L15/02;G10L15/06;G10L15/08;G06K9/62;G06F16/68;G06F16/635;H04R25/00 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 510000 廣*** | 國省代碼: | 廣東;44 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 助聽器 語音 輸出 優(yōu)化 方法 服務(wù)器 存儲(chǔ) 介質(zhì) | ||
1.一種基于助聽器的語音輸出優(yōu)化方法,應(yīng)用于服務(wù)器,其特征在于,該方法包括:
分類步驟:根據(jù)用戶的屬性信息,利用預(yù)設(shè)的聚類算法對用戶執(zhí)行聚類操作得到預(yù)設(shè)數(shù)量的用戶聚類簇;
獲取步驟:獲取預(yù)設(shè)數(shù)量的用戶情緒數(shù)據(jù)及對應(yīng)的語音輸入數(shù)據(jù),將每個(gè)所述用戶情緒數(shù)據(jù)分別輸入預(yù)先訓(xùn)練的情緒識(shí)別模型,得到對應(yīng)的情緒標(biāo)簽;
建立步驟:判斷所述情緒標(biāo)簽是否為預(yù)設(shè)標(biāo)簽,若是則利用預(yù)先確定的關(guān)鍵詞提取算法從所述預(yù)設(shè)標(biāo)簽對應(yīng)的語音輸入數(shù)據(jù)中提取對應(yīng)的預(yù)設(shè)關(guān)鍵詞,根據(jù)所述用戶聚類簇將所有預(yù)設(shè)關(guān)鍵詞分成預(yù)設(shè)數(shù)量的關(guān)鍵詞組,并分別建立與每類用戶對應(yīng)的預(yù)設(shè)詞庫存儲(chǔ)至數(shù)據(jù)庫;及
優(yōu)化步驟:接收助聽器發(fā)出的語音輸出請求,解析所述語音輸出請求得到待輸出語音對應(yīng)的語音輸入數(shù)據(jù)及用戶屬性信息,根據(jù)所述用戶屬性信息從數(shù)據(jù)庫中找到對應(yīng)的預(yù)設(shè)詞庫,判斷所述語音輸入數(shù)據(jù)對應(yīng)的關(guān)鍵詞是否存在于預(yù)設(shè)詞庫,若是則對該語音輸入數(shù)據(jù)進(jìn)行數(shù)據(jù)優(yōu)化處理得到優(yōu)化數(shù)據(jù),將所述優(yōu)化數(shù)據(jù)反饋至所述助聽器。
2.如權(quán)利要求1所述的基于助聽器的語音輸出優(yōu)化方法,其特征在于,所述獲取預(yù)設(shè)數(shù)量的用戶情緒數(shù)據(jù)及對應(yīng)的語音輸入數(shù)據(jù)包括:
通過預(yù)設(shè)傳感器獲取用戶在第一預(yù)設(shè)時(shí)間段內(nèi)產(chǎn)生的用戶情緒數(shù)據(jù);及/或
通過預(yù)設(shè)傳感器獲取用戶在第二預(yù)設(shè)時(shí)間段內(nèi)產(chǎn)生的用戶情緒數(shù)據(jù);
其中,所述第一預(yù)設(shè)時(shí)間段的時(shí)長小于第二預(yù)設(shè)時(shí)間段的時(shí)長;
所述情緒語言包括音頻數(shù)據(jù)、心率數(shù)據(jù)及行為數(shù)據(jù)。
3.如權(quán)利要求1所述的基于助聽器的語音輸出優(yōu)化方法,其特征在于,該方法還包括監(jiān)督步驟:
接收客戶端發(fā)出的用戶情緒數(shù)據(jù)調(diào)用請求,解析所述用戶情緒數(shù)據(jù)調(diào)用請求得到待調(diào)用的用戶情緒數(shù)據(jù)對應(yīng)的語音輸入數(shù)據(jù),及所述用戶情緒數(shù)據(jù)對應(yīng)的存儲(chǔ)時(shí)間;
將所述語音輸入數(shù)據(jù)并輸入預(yù)先訓(xùn)練的語境識(shí)別模型,輸出語境識(shí)別結(jié)果;
若所述語境識(shí)別結(jié)果為第一語境,則將所述用戶情緒數(shù)據(jù)發(fā)送至所述客戶端;或
若所述語境識(shí)別結(jié)果為第二語境,則拒絕所述客戶端發(fā)出的用戶情緒數(shù)據(jù)調(diào)用請求。
4.如權(quán)利要求1所述的基于助聽器的語音輸出優(yōu)化方法,其特征在于,所述情緒識(shí)別模型由支持向量機(jī)訓(xùn)練得到,所述情緒識(shí)別模型的訓(xùn)練過程包括:
獲取預(yù)設(shè)數(shù)量的用戶情緒數(shù)據(jù)樣本,為每一個(gè)用戶情緒數(shù)據(jù)樣本分配唯一的情緒標(biāo)簽;
將所述用戶情緒數(shù)據(jù)樣本按照預(yù)設(shè)比例分成訓(xùn)練集和驗(yàn)證集,所述訓(xùn)練集中的用戶情緒數(shù)據(jù)樣本數(shù)量大于驗(yàn)證集中的用戶情緒數(shù)據(jù)樣本數(shù)量;
利用預(yù)先訓(xùn)練的特征向量提取模型分別從每個(gè)用戶情緒數(shù)據(jù)樣本中提取出情緒特征向量;
將所述訓(xùn)練集中的用戶情緒數(shù)據(jù)樣本輸入所述支持向量機(jī)進(jìn)行訓(xùn)練,每隔預(yù)設(shè)周期使用所述驗(yàn)證集對所述支持向量機(jī)進(jìn)行驗(yàn)證,利用所述驗(yàn)證集中各張用戶情緒數(shù)據(jù)樣本的情緒特征向量和對應(yīng)的情緒標(biāo)簽對該情緒識(shí)別模型的準(zhǔn)確率進(jìn)行驗(yàn)證;及
當(dāng)驗(yàn)證的準(zhǔn)確率大于預(yù)設(shè)閾值時(shí),結(jié)束訓(xùn)練,得到所述情緒識(shí)別模型。
5.如權(quán)利要求1-4任一項(xiàng)所述的基于助聽器的語音輸出優(yōu)化方法,其特征在于,所述情緒特征向量提取模型由MobileNetV2網(wǎng)絡(luò)模型訓(xùn)練得到,所述MobileNetV2網(wǎng)絡(luò)模型的網(wǎng)絡(luò)結(jié)構(gòu)包括依次連接的53層卷積層、1層池化層以及1層全連接層。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于林澤珊,未經(jīng)林澤珊許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010036913.4/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





