[發(fā)明專利]一種語音建模方法及裝置有效
| 申請?zhí)枺?/td> | 201611103738.6 | 申請日: | 2016-12-05 |
| 公開(公告)號: | CN108172218B | 公開(公告)日: | 2021-01-12 |
| 發(fā)明(設(shè)計(jì))人: | 徐衍瀚 | 申請(專利權(quán))人: | 中國移動通信有限公司研究院;中國移動通信集團(tuán)公司 |
| 主分類號: | G10L15/06 | 分類號: | G10L15/06;G10L15/16 |
| 代理公司: | 北京銀龍知識產(chǎn)權(quán)代理有限公司 11243 | 代理人: | 許靜;安利霞 |
| 地址: | 100053 北*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 語音 建模 方法 裝置 | ||
本發(fā)明提供一種語音建模方法及裝置,涉及語音識別技術(shù)領(lǐng)域,用以降低語音模型建模的復(fù)雜度。本發(fā)明的語音建模方法,包括:將標(biāo)準(zhǔn)普通話數(shù)據(jù)和至少一種帶有方言口音的普通話數(shù)據(jù)作為輸入數(shù)據(jù),并提取所述輸入數(shù)據(jù)的語音特征向量;利用所述語音特征向量訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)DNN聲學(xué)模型,其中所述聲學(xué)模型的輸出層輸出第一概率;獲取帶有目標(biāo)方言口音的普通話數(shù)據(jù);利用所述帶有目標(biāo)方言口音的普通話數(shù)據(jù)學(xué)習(xí)所述輸出層,并利用所述輸出層輸出的第二概率更新所述第一概率。本發(fā)明能夠降低語音模型建模的復(fù)雜度。
技術(shù)領(lǐng)域
本發(fā)明涉及語音識別技術(shù)領(lǐng)域,尤其涉及一種語音建模方法及裝置。
背景技術(shù)
語音識別即讓機(jī)器聽懂人說的話,將語音信號轉(zhuǎn)化為計(jì)算機(jī)可識別的輸入。目前的語音識別技術(shù)主要為統(tǒng)計(jì)模式識別技術(shù)和人工神經(jīng)網(wǎng)絡(luò)技術(shù)。
隱馬爾科夫模型(Hidden Markov Model,HMM)是當(dāng)今語音識別等語音技術(shù)領(lǐng)域的較為完善較為成熟的模型,其使用統(tǒng)計(jì)的概念將時序性的語音通過隱馬爾科夫過程來建模,取得了較好的結(jié)果。
近年來基于深度神經(jīng)網(wǎng)絡(luò)(Deep Neural Networks,DNN)語音識別系統(tǒng)受到研究人員越來越多的關(guān)注。深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究,由Hinton等人于2006年提出。深度學(xué)習(xí)的實(shí)質(zhì)是通過構(gòu)建具有很多隱層的機(jī)器學(xué)習(xí)模型和海量的訓(xùn)練數(shù)據(jù),來學(xué)習(xí)更有用的特征,從而最終提升分類或預(yù)測的準(zhǔn)確性。主要有以下觀點(diǎn):(1)多隱層的人工神經(jīng)網(wǎng)絡(luò)具有優(yōu)異的特征學(xué)習(xí)能力,學(xué)習(xí)得到的特征對數(shù)據(jù)有更本質(zhì)的描述,從而有利于分類;(2)深度神經(jīng)網(wǎng)絡(luò)在訓(xùn)練上的難度,可以通過“逐層初始化”來有效克服,而逐層初始化是通過無監(jiān)督學(xué)習(xí)實(shí)現(xiàn)的。
為了提高對具有方言口音背景的普通話的識別準(zhǔn)確率,現(xiàn)有技術(shù)提供了多種方法。其中一些方法針對聲學(xué)建模過程中的訓(xùn)練方法進(jìn)行改進(jìn),一些方法對識別系統(tǒng)中的語言模型進(jìn)行改進(jìn)。但是,現(xiàn)有的對具有方言口音背景的普通話識別方法中,訓(xùn)練模型的復(fù)雜度高。
發(fā)明內(nèi)容
有鑒于此,本發(fā)明提供一種語音建模方法及裝置,用以降低語音模型建模的復(fù)雜度。
為解決上述技術(shù)問題,本發(fā)明提供一種語音建模方法,包括:
將標(biāo)準(zhǔn)普通話數(shù)據(jù)和至少一種帶有方言口音的普通話數(shù)據(jù)作為輸入數(shù)據(jù),并提取所述輸入數(shù)據(jù)的語音特征向量;
利用所述語音特征向量訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)DNN聲學(xué)模型,其中所述聲學(xué)模型的輸出層輸出第一概率;
獲取帶有目標(biāo)方言口音的普通話數(shù)據(jù);
利用所述帶有目標(biāo)方言口音的普通話數(shù)據(jù)學(xué)習(xí)所述輸出層,并利用所述輸出層輸出的第二概率更新所述第一概率。
其中,所述提取所述輸入數(shù)據(jù)的語音特征向量的步驟,包括:
對所述輸入數(shù)據(jù)進(jìn)行加窗分幀操作,獲得語音幀;
去除所述語音幀中的靜音幀,獲得所述語音特征向量。
其中,所述利用所述語音特征向量訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)DNN聲學(xué)模型,其中所述聲學(xué)模型的輸出層輸出第一概率的步驟,包括:
將所述語音特征向量作為輸入信號輸入到所述DNN聲學(xué)模型的輸入層;
在所述DNN聲學(xué)模型的多個隱藏層中,利用每個隱藏層對應(yīng)的第一權(quán)值,對所述每個隱藏層的輸入信號進(jìn)行處理,獲得所述每個隱藏層的輸出信號;
在所述DNN聲學(xué)模型的輸出層,對最上一隱藏層的輸出信號進(jìn)行處理,獲得第一概率。
其中,所述利用所述帶有目標(biāo)方言口音的普通話數(shù)據(jù)學(xué)習(xí)所述輸出層,并利用所述輸出層輸出的第二概率更新所述第一概率的步驟,包括:
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于中國移動通信有限公司研究院;中國移動通信集團(tuán)公司,未經(jīng)中國移動通信有限公司研究院;中國移動通信集團(tuán)公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201611103738.6/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





