[發(fā)明專利]一種語音識別方法、裝置及設(shè)備有效
| 申請?zhí)枺?/td> | 201910001000.6 | 申請日: | 2019-01-02 |
| 公開(公告)號: | CN111402870B | 公開(公告)日: | 2023-08-15 |
| 發(fā)明(設(shè)計)人: | 侯雷靜 | 申請(專利權(quán))人: | 中國移動通信有限公司研究院;中國移動通信集團有限公司 |
| 主分類號: | G10L15/22 | 分類號: | G10L15/22;G10L15/06;G10L15/26;G10L25/30 |
| 代理公司: | 北京銀龍知識產(chǎn)權(quán)代理有限公司 11243 | 代理人: | 許靜;安利霞 |
| 地址: | 100053 北*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 語音 識別 方法 裝置 設(shè)備 | ||
本發(fā)明提供了一種語音識別方法、裝置及設(shè)備,其中,語音識別方法包括:利用預(yù)設(shè)聲學特征映射模型對待識別的語音信息進行映射,得到目標語音信息;將目標語音信息識別轉(zhuǎn)換為對應(yīng)的文本信息;其中,目標語音信息的信號特征與預(yù)設(shè)信號特征之間相匹配。本方案能夠?qū)崿F(xiàn)充分利用聲學特征中的發(fā)音特征自適應(yīng),從而消除了現(xiàn)有技術(shù)中的各地區(qū)需要分別訓練模型以及必須依照身份ID信息、地域信息來加載模型的弊端,提高了資源利用率、實時響應(yīng)速度和識別準確率,并降低了空間占用率。
技術(shù)領(lǐng)域
本發(fā)明涉及數(shù)據(jù)處理技術(shù)領(lǐng)域,特別是指一種語音識別方法、裝置及設(shè)備。
背景技術(shù)
隨著運營商手機業(yè)務(wù)應(yīng)用的普及,客戶群體基數(shù)越見龐大,與人工客服的數(shù)量具有顯著差異;并且許多群體未能掌握應(yīng)用程序APP端訂購業(yè)務(wù)或自助短信辦理業(yè)務(wù)的技能(如高齡或偏遠地區(qū)的群體),往往會選擇電話撥打人工客服或前往營業(yè)廳辦理,這無疑會浪費大量時間與服務(wù)資源。針對這個問題,現(xiàn)有技術(shù)提供一種方案:預(yù)先針對不同的地域信息或身份ID信息定制多個聲學和語言模型;根據(jù)獲取的用戶身份ID信息或所述地域信息,選擇對應(yīng)的聲學和語言模型;將接收到的用戶語音信息轉(zhuǎn)為文本信息;并進一步處理從而得到識別結(jié)果;以此實現(xiàn)裝置自動完成手機業(yè)務(wù)訂購的目的,提升服務(wù)效率。
但是,上述方案中:針對不同省份都需要訓練地區(qū)內(nèi)的模型,我國地域廣袤需要占用大量的資源,這無疑將造成資源利用率的降低和空間占用率的增大;且即使同一省份內(nèi),也存在著發(fā)音的差異,并不能完全適用所有城市、縣鎮(zhèn)。
針對每個用戶都需要預(yù)先獲取其身份ID信息與地域信息,預(yù)處理模塊及模型加載時間的耗費,將造成實時率的下降,使用戶的等待回應(yīng)時間延長。此外,隨著社會發(fā)展,存在大量人員為尋找工作機會而在異鄉(xiāng)臨時工作的情況,這種條件下使用身份ID信息或地域信息會造成用戶語音識別與模型的不匹配問題,當不匹配性較高,錯誤率將大幅增大。
發(fā)明內(nèi)容
本發(fā)明的目的在于提供一種語音識別方法、裝置及設(shè)備,解決現(xiàn)有技術(shù)中語音識別方案的資源利用率低、空間占用率高、實時響應(yīng)速度低、識別準確率低的問題。
為了解決上述技術(shù)問題,本發(fā)明實施例提供一種語音識別方法,包括:
利用預(yù)設(shè)聲學特征映射模型對待識別的語音信息進行映射,得到目標語音信息;
將所述目標語音信息識別轉(zhuǎn)換為對應(yīng)的文本信息;
其中,所述目標語音信息的信號特征與預(yù)設(shè)信號特征之間相匹配。
可選的,所述利用預(yù)設(shè)聲學特征映射模型對待識別的語音信息進行映射,得到目標語音信息,包括:
利用預(yù)設(shè)聲學特征映射模型中的卷積層對待識別的語音信息進行卷積操作,得到第一語音信息;
利用預(yù)設(shè)聲學特征映射模型中的池化層對所述第一語音信息進行平均池化操作,得到第二語音信息;
利用預(yù)設(shè)聲學特征映射模型中的網(wǎng)絡(luò)層對所述第二語音信息進行映射操作,得到目標語音信息。
可選的,所述卷積層的網(wǎng)絡(luò)為卷積神經(jīng)網(wǎng)絡(luò),所述網(wǎng)絡(luò)層的激活函數(shù)為線性整流函數(shù)Relu。
可選的,利用預(yù)設(shè)聲學特征映射模型對待識別的語音信息進行映射,得到目標語音信息之前,還包括:
采用對抗式深度神經(jīng)網(wǎng)絡(luò)訓練所述預(yù)設(shè)聲學特征映射模型。
可選的,所述采用對抗式深度神經(jīng)網(wǎng)絡(luò)訓練所述預(yù)設(shè)聲學特征映射模型,包括:
利用公式一,訓練所述預(yù)設(shè)聲學特征映射模型,得到所述預(yù)設(shè)聲學特征映射模型的目標參數(shù)配置信息;
其中,所述預(yù)設(shè)聲學特征映射模型對應(yīng)的損失函數(shù)包括對經(jīng)過所述預(yù)設(shè)聲學特征映射模型后的語音信息進行解碼輸出產(chǎn)生的第一損失函數(shù)和對經(jīng)過所述預(yù)設(shè)聲學特征映射模型后的語音信息進行地域分類產(chǎn)生的第二損失函數(shù);
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于中國移動通信有限公司研究院;中國移動通信集團有限公司,未經(jīng)中國移動通信有限公司研究院;中國移動通信集團有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910001000.6/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





