[發(fā)明專利]語音模型訓練方法、語音識別方法、裝置、設(shè)備及介質(zhì)在審
| 申請?zhí)枺?/td> | 201810551458.4 | 申請日: | 2018-05-31 |
| 公開(公告)號: | CN108922515A | 公開(公告)日: | 2018-11-30 |
| 發(fā)明(設(shè)計)人: | 涂宏 | 申請(專利權(quán))人: | 平安科技(深圳)有限公司 |
| 主分類號: | G10L15/06 | 分類號: | G10L15/06;G10L15/02;G10L25/18;G10L25/24;G10L25/30;G10L25/45 |
| 代理公司: | 深圳眾鼎專利商標代理事務所(普通合伙) 44325 | 代理人: | 譚果林 |
| 地址: | 518000 廣東省深*** | 國省代碼: | 廣東;44 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 語音模型 目標語音 訓練語音 獲取目標 關(guān)聯(lián)存儲 目標背景 聲紋特征 語音識別 語音特征 數(shù)據(jù)提取目標 自適應處理 神經(jīng)網(wǎng)絡(luò) 數(shù)據(jù)提取 特征獲取 特征識別 特征輸入 語音數(shù)據(jù) 數(shù)據(jù)庫 語音 | ||
1.一種語音模型訓練方法,其特征在于,包括:
獲取訓練語音數(shù)據(jù),基于所述訓練語音數(shù)據(jù)提取訓練語音特征;
基于所述訓練語音特征獲取目標背景模型;
獲取目標語音數(shù)據(jù),基于所述目標語音數(shù)據(jù)提取目標語音特征;
采用所述目標背景模型對所述目標語音特征進行自適應處理,獲取目標聲紋特征識別模型;
將所述目標語音特征輸入到深度神經(jīng)網(wǎng)絡(luò)中進行訓練,獲取目標語音特征識別模型;
將所述目標聲紋特征識別模型和所述目標語音特征識別模型關(guān)聯(lián)存儲在數(shù)據(jù)庫中。
2.根據(jù)權(quán)利要求1所述的語音模型訓練方法,其特征在于,所述基于所述訓練語音數(shù)據(jù)提取訓練語音特征,包括:
對所述訓練語音數(shù)據(jù)進行預處理;
對預處理后的訓練語音數(shù)據(jù)作快速傅里葉變換,獲取訓練語音數(shù)據(jù)的頻譜,并根據(jù)所述頻譜獲取訓練語音數(shù)據(jù)的功率譜;
采用梅爾刻度濾波器組處理所述訓練語音數(shù)據(jù)的功率譜,獲取訓練語音數(shù)據(jù)的梅爾功率譜;
在所述梅爾功率譜上進行倒譜分析,獲取訓練語音數(shù)據(jù)的梅爾頻率倒譜系數(shù),并將獲取到的梅爾頻率倒譜系數(shù)確定為所述訓練語音特征。
3.根據(jù)權(quán)利要求2所述的語音模型訓練方法,其特征在于,所述對所述訓練語音數(shù)據(jù)進行預處理,包括:
對所述訓練語音數(shù)據(jù)作預加重處理;
對預加重后的所述訓練語音數(shù)據(jù)進行分幀處理;
對分幀處理后的所述訓練語音數(shù)據(jù)進行加窗處理。
4.根據(jù)權(quán)利要求1所述的語音模型訓練方法,其特征在于,所述基于所述訓練語音特征獲取目標背景模型,包括:
采用所述訓練語音特征進行通用背景模型訓練,獲取通用背景模型;
采用奇異值分解對所述通用背景模型進行特征降維處理,獲取所述目標背景模型。
5.根據(jù)權(quán)利要求1所述的語音模型訓練方法,其特征在于,所述將所述目標語音特征輸入到深度神經(jīng)網(wǎng)絡(luò)中進行訓練,獲取目標語音特征識別模型,包括:
初始化深度神經(jīng)網(wǎng)絡(luò)模型;
將所述目標語音特征分組輸入到所述深度神經(jīng)網(wǎng)絡(luò)模型中,根據(jù)前向傳播算法獲取深度神經(jīng)網(wǎng)絡(luò)模型的輸出值,目標語音特征的第i組樣本在深度神經(jīng)網(wǎng)絡(luò)模型的當前層的輸出值用公式表示為ai,l=σ(Wlai,l-1+bl),其中,a為輸出值,i表示輸入的目標語音特征的第i組樣本,l為深度神經(jīng)網(wǎng)絡(luò)模型的當前層,σ為激活函數(shù),W為權(quán)值,l-1為深度神經(jīng)網(wǎng)絡(luò)模型的當前層的上一層,b為偏置;
基于深度神經(jīng)網(wǎng)絡(luò)模型的輸出值進行誤差反傳,更新深度神經(jīng)網(wǎng)絡(luò)模型各層的權(quán)值和偏置,獲取所述目標語音特征識別模型,其中,更新權(quán)值的計算公式為l為深度神經(jīng)網(wǎng)絡(luò)模型的當前層,W為權(quán)值,α為迭代步長,m為輸入的目標語音特征的樣本總數(shù),δi,l為當前層的靈敏度;zi,l=Wlai,l-1+bl,ai,l-1為上一層的輸出,T表示矩陣轉(zhuǎn)置運算,表示兩個矩陣對應元素相乘的運算(Hadamard積),更新偏置的計算公式為
6.一種語音識別方法,其特征在于,包括:
獲取待識別語音數(shù)據(jù),所述待識別語音數(shù)據(jù)與用戶標識相關(guān)聯(lián);
基于所述用戶標識查詢數(shù)據(jù)庫,獲取關(guān)聯(lián)存儲的目標聲紋特征識別模型和目標語音特征識別模型,所述目標聲紋特征識別模型和所述目標語音特征識別模型是采用權(quán)利要求1-5任一項所述語音模型訓練方法獲取的模型;
基于所述待識別語音數(shù)據(jù),提取待識別語音特征;
將所述待識別語音特征輸入到目標語音特征識別模型,獲取第一得分;
將所述待識別語音數(shù)據(jù)輸入到目標聲紋特征識別模型中,獲取第二得分;
將所述第一得分與預設(shè)的第一加權(quán)比例相乘,獲取第一加權(quán)得分,將所述第二得分與預設(shè)的第二加權(quán)比例相乘,獲取第二加權(quán)得分,將所述第一加權(quán)得分和所述第二加權(quán)得分相加,獲取目標得分;
若所述目標得分大于預設(shè)得分閾值,則確定所述待識別語音數(shù)據(jù)為所述用戶標識對應的目標語音數(shù)據(jù)。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于平安科技(深圳)有限公司,未經(jīng)平安科技(深圳)有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810551458.4/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





