[發明專利]歌唱者識別方法和裝置在審
| 申請號: | 201811148198.2 | 申請日: | 2018-09-29 |
| 公開(公告)號: | CN109308901A | 公開(公告)日: | 2019-02-05 |
| 發明(設計)人: | 陳建哲;鐘思思;賀學焱 | 申請(專利權)人: | 百度在線網絡技術(北京)有限公司 |
| 主分類號: | G10L17/04 | 分類號: | G10L17/04 |
| 代理公司: | 北京英賽嘉華知識產權代理有限責任公司 11204 | 代理人: | 王達佐;馬曉亞 |
| 地址: | 100085 北京市*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 音樂數據 方法和裝置 準確度 分離模型 申請 | ||
1.一種歌唱者識別方法,包括:
采用已訓練的人聲分離模型對待識別的音樂數據進行處理,得到待識別的音樂數據中的人聲數據;
將待識別的音樂數據中的人聲數據輸入已訓練的歌唱者識別模型,得到所述待識別的音樂數據的歌唱者識別結果。
2.根據權利要求1所述的方法,其中,所述方法還包括:
基于第一樣本音樂數據訓練得出所述已訓練的人聲分離模型。
3.根據權利要求2所述的方法,其中,所述基于第一樣本音樂數據訓練得出所述已訓練的人聲分離模型,包括:
提取所述第一樣本音樂數據的頻譜特征,并基于所述第一樣本音樂數據的頻譜特征從第一樣本音樂數據中分離出樣本人聲數據;
基于高斯混合模型構建待訓練的人聲分離模型,將所述樣本人聲數據作為所述待訓練的人聲分離模型對第一樣本音樂數據進行人聲分離得到第一樣本音樂數據中的人聲數據的期望結果,訓練得出所述已訓練的人聲分離模型。
4.根據權利要求2所述的方法,其中,所述基于第一樣本音樂數據訓練得出所述已訓練的人聲分離模型,包括:
提取所述第一樣本音樂數據的頻譜特征,基于第一樣本音樂數據的頻率特征將從樣本音樂數據分解為樣本人聲數據和樣本伴奏數據;
基于高斯混合模型構建待訓練的人聲分離模型,將所述樣本人聲數據作為所述待訓練的人聲分離模型對第一樣本音樂數據進行人聲分離得到第一樣本音樂數據中的人聲數據的期望結果,并且將所述樣本伴奏數據作為所述待訓練的人聲分離模型對第一樣本音樂數據進行人聲分離得到第一樣本音樂數據中的伴奏數據的期望結果,訓練得出所述已訓練的人聲分離模型。
5.根據權利要求1-4任一項所述的方法,其中,所述方法還包括:
基于具有對應的歌唱者標注信息的第二樣本音樂數據訓練得出所述已訓練的歌唱者識別模型,包括:
將所述第二樣本音樂數據輸入所述已訓練的人聲分離模型,得到第二樣本音樂數據中的人聲數據;
基于高斯混合模型構建待訓練的歌唱者識別模型,利用所述第二樣本音樂數據中的人聲數據,將所述第二樣本音樂數據的歌唱者標注信息作為待訓練的歌唱者識別模型對第二樣本音樂數據中的人聲數據的歌唱者識別的期望結果,對所述待訓練的歌唱者模型進行訓練,得到所述已訓練的歌唱者識別模型。
6.一種歌唱者識別裝置,包括:
分離單元,被配置為采用已訓練的人聲分離模型對待識別的音樂數據進行處理,得到待識別的音樂數據中的人聲數據;
識別單元,被配置為將待識別的音樂數據中的人聲數據輸入已訓練的歌唱者識別模型,得到所述待識別的音樂數據的歌唱者識別結果。
7.根據權利要求6所述的裝置,其中,所述裝置還包括:
第一訓練單元,被配置為基于第一樣本音樂數據訓練得出所述已訓練的人聲分離模型。
8.根據權利要求7所述的裝置,其中,所述第一訓練單元進一步被配置為基于第一樣本音樂數據,按照如下方式訓練得出所述已訓練的人聲分離模型:
提取所述第一樣本音樂數據的頻譜特征,并基于所述第一樣本音樂數據的頻譜特征從第一樣本音樂數據中分離出樣本人聲數據;
基于高斯混合模型構建待訓練的人聲分離模型,將所述樣本人聲數據作為所述待訓練的人聲分離模型對第一樣本音樂數據進行人聲分離得到第一樣本音樂數據中的人聲數據的期望結果,訓練得出所述已訓練的人聲分離模型。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于百度在線網絡技術(北京)有限公司,未經百度在線網絡技術(北京)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811148198.2/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:耳機裝置、語音處理系統和語音處理方法
- 下一篇:一種鋼琴調音系統及方法





