[發明專利]一種聲學場景分類方法與系統在審
| 申請號: | 202011332458.9 | 申請日: | 2020-11-24 |
| 公開(公告)號: | CN112466333A | 公開(公告)日: | 2021-03-09 |
| 發明(設計)人: | 劉明;孫沖武;周彥兵;李永紅;王貝 | 申請(專利權)人: | 深圳信息職業技術學院 |
| 主分類號: | G10L25/51 | 分類號: | G10L25/51;G06N3/04;G06N3/08;G10L25/03;G10L25/18;G10L25/30 |
| 代理公司: | 深圳市添源知識產權代理事務所(普通合伙) 44451 | 代理人: | 羅志偉 |
| 地址: | 518000 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 聲學 場景 分類 方法 系統 | ||
本發明提供了一種聲學場景分類方法,包括以下步驟:S1、將采集到的環境音頻信號輸入到特征提取模塊,進行基于諧波沖擊的梅爾對數譜特征的提??;S2、將提取到的梅爾對數譜特征輸入到集成學習分類器模塊,進行聲學場景分類,得到聲學場景分類結果;S3、將聲學場景分類結果輸入到綜合決策模塊,進行綜合決策,然后做出最終的分類決定。本發明還提供了一種聲學場景分類系統。本發明的有益效果是:可以可靠地、準確地識別音頻中的不同場景。
技術領域
本發明涉及聲學場景,尤其涉及一種聲學場景分類方法與系統。
背景技術
在真實聲學場景中,通常會伴隨著多種聲音的同時出現,也就導致了場景聲音并不明顯,例如,在一些音頻中不僅包含人說話的聲音,還包含了各種人類活動的聲音如走路、騎車以及周圍的環境聲音,如街道上的汽車聲音、沙灘的海浪聲等等。此時,從復雜的音頻中識別出真實的聲學場景是比較困難的,目前分類方法如隱馬爾可夫模型、高斯混合模型、支持向量機、K近鄰算法等,雖然在數據量較小的情況下也能取得不錯的分類準確率,但是當數據更加豐富、場景類型更多時,這些方法均表現不佳。因此,需要設計更好的分類模型來可靠地、準確地識別音頻中的不同場景。
發明內容
為了解決現有技術中的問題,本發明提供了一種基于集成學習和諧波沖擊梅爾對數特征的聲學場景分類方法與系統。
本發明提供了一種聲學場景分類方法,包括以下步驟:
S1、將采集到的環境音頻信號輸入到特征提取模塊,進行基于諧波沖擊的梅爾對數譜特征的提?。?/p>
S2、將提取到的梅爾對數譜特征輸入到集成學習分類器模塊,進行聲學場景分類,得到聲學場景分類結果;
S3、將聲學場景分類結果輸入到綜合決策模塊,進行綜合決策,然后做出最終的分類決定。
作為本發明的進一步改進,在步驟S1中,首先,將采集到的環境音頻信號進行分幀加窗處理,再進行短時傅里葉變換,得到信號的頻譜特征,再分離信號中的諧波源和沖擊源,得到信號中的諧波源和沖擊源特征后,分別提取諧波源和沖擊源各自的梅爾對數譜特征,得到諧波源梅爾對數特征和沖擊源梅爾對數特征。
作為本發明的進一步改進,在步驟S2中,將聲學場景分類結果輸入到多個不同參數配置的深層卷積神經網絡,采用集成學習的方法對多個不同參數配置的深層卷積神經網絡進行評分矩陣的估計。
作為本發明的進一步改進,所述深層卷積神經網絡采用堆疊殘差模塊的方式,每個殘差模塊由兩個二維卷積層構成。
作為本發明的進一步改進,每個二維卷積層的卷積核不同,輸出通道數也不同。
作為本發明的進一步改進,在步驟S3中,采用加權方式的布爾運算方法進行綜合決策。
本發明還提供了一種聲學場景分類系統,包括可讀存儲介質,所述可讀存儲介質中存儲有執行指令,所述執行指令被處理器執行時用于實現如上述中任一項所述的方法。
本發明的有益效果是:通過上述方案,可以可靠地、準確地識別音頻中的不同場景。
附圖說明
圖1是本發明一種聲學場景分類方法的處理流程框圖。
圖2是本發明一種聲學場景分類方法的深度卷積網絡分類器模型結構圖。
具體實施方式
下面結合附圖說明及具體實施方式對本發明作進一步說明。
一種基于集成學習和諧波沖擊梅爾對數特征的聲學場景分類方法,通過提取一種基于諧波沖擊的聲學特征,并將其作為多個不同的卷積神經網絡模型的輸入進行聲學場景分類器的構建,最后通過一種加權評估函數來實現對多個模型輸出結果的綜合。整個算法的處理流程如圖1所示,它主要由特征提取模塊、多模型分類模塊和綜合決策模塊構成。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳信息職業技術學院,未經深圳信息職業技術學院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011332458.9/2.html,轉載請聲明來源鉆瓜專利網。





