[發(fā)明專利]一種語音識別方法、裝置及設(shè)備有效
| 申請?zhí)枺?/td> | 201910001000.6 | 申請日: | 2019-01-02 |
| 公開(公告)號: | CN111402870B | 公開(公告)日: | 2023-08-15 |
| 發(fā)明(設(shè)計)人: | 侯雷靜 | 申請(專利權(quán))人: | 中國移動通信有限公司研究院;中國移動通信集團(tuán)有限公司 |
| 主分類號: | G10L15/22 | 分類號: | G10L15/22;G10L15/06;G10L15/26;G10L25/30 |
| 代理公司: | 北京銀龍知識產(chǎn)權(quán)代理有限公司 11243 | 代理人: | 許靜;安利霞 |
| 地址: | 100053 北*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 語音 識別 方法 裝置 設(shè)備 | ||
1.一種語音識別方法,其特征在于,包括:
利用預(yù)設(shè)聲學(xué)特征映射模型對待識別的語音信息進(jìn)行映射,得到目標(biāo)語音信息;
將所述目標(biāo)語音信息識別轉(zhuǎn)換為對應(yīng)的文本信息;
其中,所述目標(biāo)語音信息的信號特征與預(yù)設(shè)信號特征之間相匹配;
利用預(yù)設(shè)聲學(xué)特征映射模型對待識別的語音信息進(jìn)行映射,得到目標(biāo)語音信息之前,還包括:
采用對抗式深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練所述預(yù)設(shè)聲學(xué)特征映射模型;
所述采用對抗式深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練所述預(yù)設(shè)聲學(xué)特征映射模型,包括:
利用公式一,訓(xùn)練所述預(yù)設(shè)聲學(xué)特征映射模型,得到所述預(yù)設(shè)聲學(xué)特征映射模型的目標(biāo)參數(shù)配置信息;
其中,所述預(yù)設(shè)聲學(xué)特征映射模型對應(yīng)的損失函數(shù)包括對經(jīng)過所述預(yù)設(shè)聲學(xué)特征映射模型后的語音信息進(jìn)行解碼輸出產(chǎn)生的第一損失函數(shù)和對經(jīng)過所述預(yù)設(shè)聲學(xué)特征映射模型后的語音信息進(jìn)行地域分類產(chǎn)生的第二損失函數(shù);
所述公式一為:F(Loss)=F(L1)-λF(L2);
F(Loss)表示總損失值;F(L1)表示所述第一損失函數(shù);λ表示預(yù)設(shè)調(diào)節(jié)系數(shù);F(L2)表示所述第二損失函數(shù)。
2.根據(jù)權(quán)利要求1所述的語音識別方法,其特征在于,所述利用預(yù)設(shè)聲學(xué)特征映射模型對待識別的語音信息進(jìn)行映射,得到目標(biāo)語音信息,包括:
利用預(yù)設(shè)聲學(xué)特征映射模型中的卷積層對待識別的語音信息進(jìn)行卷積操作,得到第一語音信息;
利用預(yù)設(shè)聲學(xué)特征映射模型中的池化層對所述第一語音信息進(jìn)行平均池化操作,得到第二語音信息;
利用預(yù)設(shè)聲學(xué)特征映射模型中的網(wǎng)絡(luò)層對所述第二語音信息進(jìn)行映射操作,得到目標(biāo)語音信息。
3.根據(jù)權(quán)利要求2所述的語音識別方法,其特征在于,所述卷積層的網(wǎng)絡(luò)為卷積神經(jīng)網(wǎng)絡(luò),所述網(wǎng)絡(luò)層的激活函數(shù)為線性整流函數(shù)Relu。
4.根據(jù)權(quán)利要求1所述的語音識別方法,其特征在于,所述預(yù)設(shè)聲學(xué)特征映射模型的目標(biāo)參數(shù)配置信息為:所述公式一中的F(Loss)取最小值時,所述預(yù)設(shè)聲學(xué)特征映射模型的參數(shù)配置信息。
5.一種語音識別裝置,其特征在于,包括:
第一映射模塊,用于利用預(yù)設(shè)聲學(xué)特征映射模型對待識別的語音信息進(jìn)行映射,得到目標(biāo)語音信息;
第一轉(zhuǎn)換模塊,用于將所述目標(biāo)語音信息識別轉(zhuǎn)換為對應(yīng)的文本信息;
其中,所述目標(biāo)語音信息的信號特征與預(yù)設(shè)信號特征之間相匹配;
第一訓(xùn)練模塊,用于利用預(yù)設(shè)聲學(xué)特征映射模型對待識別的語音信息進(jìn)行映射,得到目標(biāo)語音信息之前,采用對抗式深度神經(jīng)網(wǎng)絡(luò)訓(xùn)練所述預(yù)設(shè)聲學(xué)特征映射模型;
所述第一訓(xùn)練模塊,包括:
第一訓(xùn)練子模塊,用于利用公式一,訓(xùn)練所述預(yù)設(shè)聲學(xué)特征映射模型,得到所述預(yù)設(shè)聲學(xué)特征映射模型的目標(biāo)參數(shù)配置信息;
其中,所述預(yù)設(shè)聲學(xué)特征映射模型對應(yīng)的損失函數(shù)包括對經(jīng)過所述預(yù)設(shè)聲學(xué)特征映射模型后的語音信息進(jìn)行解碼輸出產(chǎn)生的第一損失函數(shù)和對經(jīng)過所述預(yù)設(shè)聲學(xué)特征映射模型后的語音信息進(jìn)行地域分類產(chǎn)生的第二損失函數(shù);
所述公式一為:F(Loss)=F(L1)-λF(L2);
F(Loss)表示總損失值;F(L1)表示所述第一損失函數(shù);λ表示預(yù)設(shè)調(diào)節(jié)系數(shù);F(L2)表示所述第二損失函數(shù)。
6.根據(jù)權(quán)利要求5所述的語音識別裝置,其特征在于,所述第一映射模塊,包括:
第一處理子模塊,用于利用預(yù)設(shè)聲學(xué)特征映射模型中的卷積層對待識別的語音信息進(jìn)行卷積操作,得到第一語音信息;
第二處理子模塊,用于利用預(yù)設(shè)聲學(xué)特征映射模型中的池化層對所述第一語音信息進(jìn)行平均池化操作,得到第二語音信息;
第三處理子模塊,用于利用預(yù)設(shè)聲學(xué)特征映射模型中的網(wǎng)絡(luò)層對所述第二語音信息進(jìn)行映射操作,得到目標(biāo)語音信息。
7.根據(jù)權(quán)利要求6所述的語音識別裝置,其特征在于,所述卷積層的網(wǎng)絡(luò)為卷積神經(jīng)網(wǎng)絡(luò),所述網(wǎng)絡(luò)層的激活函數(shù)為線性整流函數(shù)Relu。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于中國移動通信有限公司研究院;中國移動通信集團(tuán)有限公司,未經(jīng)中國移動通信有限公司研究院;中國移動通信集團(tuán)有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910001000.6/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





