[發(fā)明專利]音樂生成方法、裝置及存儲介質(zhì)在審
| 申請?zhí)枺?/td> | 202111115570.1 | 申請日: | 2021-09-23 |
| 公開(公告)號: | CN115881063A | 公開(公告)日: | 2023-03-31 |
| 發(fā)明(設(shè)計)人: | 汪蘊哲 | 申請(專利權(quán))人: | 北京小米移動軟件有限公司;北京小米松果電子有限公司 |
| 主分類號: | G10H1/00 | 分類號: | G10H1/00 |
| 代理公司: | 北京英創(chuàng)嘉友知識產(chǎn)權(quán)代理事務(wù)所(普通合伙) 11447 | 代理人: | 魏嘉熹 |
| 地址: | 100085 北京市海淀*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 音樂 生成 方法 裝置 存儲 介質(zhì) | ||
本公開涉及一種音樂生成方法、裝置及存儲介質(zhì)。所述方法包括:根據(jù)用戶輸入的音樂偏好信息,確定與所述音樂偏好信息對應(yīng)的和弦信息和節(jié)奏型信息;根據(jù)所述和弦信息和所述節(jié)奏型信息,生成目標MIDI數(shù)據(jù);確定目標渲染規(guī)則,所述目標渲染規(guī)則包括對MIDI數(shù)據(jù)進行音色渲染的音色組合和渲染順序;根據(jù)所述目標渲染規(guī)則,對所述目標MIDI數(shù)據(jù)進行音色渲染,得到目標音樂。這樣,基于用戶的音樂偏好所對應(yīng)的和弦信息和節(jié)奏型信息,能夠生成更加符合用戶音樂偏好的MIDI數(shù)據(jù),再按照音色組合和順序進行渲染,使最終獲得的目標音樂具有更加豐富的音樂信息和更加完整的音樂結(jié)構(gòu),進一步地,還能夠滿足打碟場景對于音樂的需求。
技術(shù)領(lǐng)域
本公開涉及音樂合成領(lǐng)域,尤其涉及一種音樂生成方法、裝置及存儲介質(zhì)。
背景技術(shù)
目前,在音樂生成領(lǐng)域,主要基于規(guī)則、概率模型、深度學習等技術(shù)實現(xiàn)合成音樂的目標,其中,由于規(guī)則和概率模型這兩種技術(shù)本身的局限性較大,因此近年來更傾向于基于深度學習的音樂生成。目前,在基于深度學習的音樂生成中,主要實現(xiàn)的是針對鋼琴曲、樂器單旋律、流行編曲等的音樂生成,生成的音樂比較單一,無法生成構(gòu)成比較復雜的音樂,例如打碟所使用的電子音樂。
發(fā)明內(nèi)容
為克服相關(guān)技術(shù)中存在的問題,本公開提供一種音樂生成方法、裝置及存儲介質(zhì)。
根據(jù)本公開實施例的第一方面,提供一種音樂生成方法,所述方法包括:
根據(jù)用戶輸入的音樂偏好信息,確定與所述音樂偏好信息對應(yīng)的和弦信息和節(jié)奏型信息;
根據(jù)所述和弦信息和所述節(jié)奏型信息,生成目標MIDI數(shù)據(jù);
確定目標渲染規(guī)則,所述目標渲染規(guī)則包括對MIDI數(shù)據(jù)進行音色渲染的音色組合和渲染順序;
根據(jù)所述目標渲染規(guī)則,對所述目標MIDI數(shù)據(jù)進行音色渲染,得到目標音樂。
可選地,所述根據(jù)所述和弦信息和所述節(jié)奏型信息,生成目標MIDI數(shù)據(jù),包括:
將所述和弦信息和所述節(jié)奏型信息輸入至生成模型,得到所述生成模型輸出的預設(shè)音軌的音符分布信息,其中,所述生成模型通過對生成式對抗網(wǎng)絡(luò)進行訓練而得到;
根據(jù)所述音符分布信息,確定所述目標MIDI數(shù)據(jù)。
可選地,所述生成模型包括至少一個生成子模型,所述生成子模型與所述預設(shè)音軌一一對應(yīng);
所述將所述和弦信息和所述節(jié)奏型信息輸入至生成模型,得到所述生成模型輸出的預設(shè)音軌的音符分布信息,包括:
獲取噪聲信息;
將所述和弦信息、所述節(jié)奏型信息和所述噪聲信息分別輸入至每一生成子模型,得到所述生成子模型各自輸出的音符分布信息,以獲得各個所述預設(shè)音軌的音符分布信息。
可選地,所述生成模型通過以下方式得到:
獲取第一訓練數(shù)據(jù),所述第一訓練數(shù)據(jù)包括和弦樣本和節(jié)奏型樣本;
確定訓練模型,所述訓練模型包括分別對應(yīng)于各個所述預設(shè)音軌的生成網(wǎng)絡(luò)和判別器;
將目標和弦樣本、目標節(jié)奏型樣本和獲取到的目標噪聲分別輸入至本次訓練所使用的每一生成網(wǎng)絡(luò),得到各個所述生成網(wǎng)絡(luò)輸出的第一輸出結(jié)果,其中,所述目標和弦樣本和所述目標節(jié)奏型樣本取自所述第一訓練數(shù)據(jù)中的和弦樣本和節(jié)奏型樣本;
針對每一所述預設(shè)音軌,將該預設(shè)音軌對應(yīng)的第一輸出結(jié)果、所述目標和弦樣本和所述目標節(jié)奏型樣本,輸入至與該預設(shè)音軌對應(yīng)的判別器,得到該判別器輸出的第二輸出結(jié)果;
在不滿足停止訓練條件的情況下,根據(jù)所述第二輸出結(jié)果,更新本次訓練所使用的各個生成網(wǎng)絡(luò),以得到更新后的訓練模型,并且,將更新后的訓練模型用于下一次訓練;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于北京小米移動軟件有限公司;北京小米松果電子有限公司,未經(jīng)北京小米移動軟件有限公司;北京小米松果電子有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202111115570.1/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





