[發明專利]復雜環境下基于深層神經網絡的語音特征映射方法在審
| 申請號: | 202010635342.6 | 申請日: | 2020-07-03 |
| 公開(公告)號: | CN111816187A | 公開(公告)日: | 2020-10-23 |
| 發明(設計)人: | 劉劍豪;王亨佳;胡喬林;高坡;都興霖;楊華兵;王敏 | 申請(專利權)人: | 中國人民解放軍空軍預警學院 |
| 主分類號: | G10L17/18 | 分類號: | G10L17/18;G10L17/02;G10L17/04;G10L17/20;G10L25/24;G06N3/04;G06N3/08 |
| 代理公司: | 北京化育知識產權代理有限公司 11833 | 代理人: | 尹均利 |
| 地址: | 430019 湖北*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 復雜 環境 基于 深層 神經網絡 語音 特征 映射 方法 | ||
本發明涉及語音信號處理技術領域,且公開了復雜環境下基于深層神經網絡的語音特征映射方法,包括以下步驟:步驟1:構造大量干凈環境和復雜環境下的語音信號數據對;步驟2:提取干凈環境下語音信號的特征;步驟3:提取復雜環境下語音信號的特征;步驟4:對DNN模型進行訓練;步驟5:利用訓練好的DNN模型對復雜環境下的語音特征進行映射。本發明采用了DNN作為映射模型,能有效擬合復雜環境下語音信號特征參數與干凈環境下語音信號特征參數之間非線性關系;本發明提出的特征映射方法能夠對復雜環境下語音信號的特征進行映射,有效提升復雜環境下語音特征的純凈度;本法提出的特征映射方法對大多數聲學場景都具有泛化能力。
技術領域
本發明涉及語音信號處理技術領域,具體為一種復雜環境下基于深層神經網絡的語音特征映射方法。
背景技術
隨著語音信號處理技術、模式識別技術以及人工智能技術的不斷發展,說話人識別技術開始由實驗室走向實際應用領域,在信息安全、金融驗證、公安刑偵、軍事國防保密等領域展現出巨大的應用前景。
語音是人類使用最頻繁最高效的溝通方式,同時也可以作為人類的生物特征之一;在良好的語音環境下,用語音作為人機交互方式,既可以傳達人們表達的意思也可以利用說話人識別技術準確快捷的實現個人身份認證;在廣泛地應用需求下,推動語音技術中說話人識別技術的發展,將成為人機交互革命的重要條件且具有劃時代的重要意義。
但是在現實生活中充斥著大量不確定因素,使得說話人識別魯棒性仍然面臨極大的困難與挑戰;這些因素主要包括背景噪聲、信道差異、語音差異、短語音、時變語音、情緒影響等方面;尤其是信道差異以及環境變化更是說話人識別技術在應用場景下不可避免的障礙,導致說話人識別性能急劇下降。
目前解決環境噪聲和信道差異對說話人識別造成影響的方案主要包括三種:一種是特征域,第二種是模型域,第三種得分域;其中從特征空間的角度解決信道干擾問題效果較好,它不對采用什么樣的模型產生依賴,也與模型匹配后的得分算法無關,但又與語音信號本身的固有屬性相關;特征映射就是特征域的一種解決方案;通過訓練一個泛化大多數場景的映射模型,從復雜環境的語音信號特征中預測干凈環境下的語音信號特征,大幅度提升特征的信道和噪聲魯棒性。
發明內容
針對上述問題,本發明的目的在于提供復雜環境下基于深層神經網絡的語音特征映射方法,解決了由于訓練環境和測試環境不匹配造成的語音信號頻譜畸變,又消除了由于信道傳輸特性導致的說話人特征參數的變形情況。
本發明為實現技術目的采用如下技術方案:復雜環境下基于深層神經網絡的語音特征映射方法,包括以下步驟:
步驟1:構造大量干凈環境和復雜環境下的語音信號數據對;
步驟2:提取干凈環境下語音信號的特征;
步驟3:提取復雜環境下語音信號的特征;
步驟4:對DNN模型進行訓練;
步驟5:利用訓練好的DNN模型對復雜環境下的語音特征進行映射。
進一步,所述步驟1的具體實現:
基于DNN的特征映射方法是一個有監督的訓練模型,需要大量的平行語料,而且還需要大量復雜環境下語音和干凈環境下語音的數據對,才能使得DNN模型具有較好地泛化能力,一般情況下影響說話人識別率的主要因素是環境噪聲和信道差異,其中環境噪聲中加性噪聲對識別率影響最大,因此依據復雜環境模型構造了大量平行語料,復雜模型如式所示:
S=f(X1,X2,w)+αN
其中α是一個調節因子,用來控制信噪比;X表示干凈環境下采集的語音信號;N表示噪聲信號;w是信道傳輸參數;通過這個模型就可以構造出海量多信噪比、多種噪聲類型、不同信道傳輸的復雜環境的語音數據。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國人民解放軍空軍預警學院,未經中國人民解放軍空軍預警學院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010635342.6/2.html,轉載請聲明來源鉆瓜專利網。





