[發明專利]基于深度神經網絡的視頻壓縮方法有效
| 申請號: | 201710758241.6 | 申請日: | 2017-08-29 |
| 公開(公告)號: | CN107396124B | 公開(公告)日: | 2019-09-20 |
| 發明(設計)人: | 馬展;陳彤;劉浩杰 | 申請(專利權)人: | 南京大學 |
| 主分類號: | H04N19/42 | 分類號: | H04N19/42;H04N19/503;H04N19/124;H04N19/91;G06N3/04;G06N3/08 |
| 代理公司: | 南京知識律師事務所 32207 | 代理人: | 李媛媛 |
| 地址: | 210046 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 神經網絡 視頻壓縮 方法 | ||
1.基于深度神經網絡的視頻壓縮方法,其特征在于,包括如下步驟:
S1,收集和整理規范的高清視頻圖像數據集,構建神經網絡訓練集、測試集和交叉驗證集;
S2,建立多層的預測神經網絡和殘差神經網絡:將所述神經網絡訓練集中的圖像分為無交疊的M×N塊,用于訓練視頻編碼的預測模型,預測模型包括幀內預測模式和幀間預測模式;
S3,對于幀間預測模式,利用運動估計算法,在視頻的前一幀的對應區域內尋找最佳匹配塊,并計算殘差和幀間預測的均方差;
S4,根據所述均方差以及設定的閾值來選擇預測模型的模式為幀內預測模式或幀間預測模式:設定幀內預測模式和幀間預測模式選擇的閾值,若均方差小于閾值,則保留原有的幀間預測模式;若均方差大于閾值,則選擇幀內預測模式;
S5,預測模式選擇完成后,將殘差作為新數據訓練殘差編碼網絡,保存訓練模型,訓練模型包括幀內殘差模式和幀間殘差模式;
S6,最終預測神經網絡和殘差神經網絡的輸出數據經過量化和無損熵編碼一起作為固定長度碼流的壓縮數據;
S7,解碼端通過與編碼端對稱的神經網絡將步驟S6中的壓縮數據還原成M×N塊,并重建恢復出壓縮后的圖像。
2.根據權利要求1所述的基于深度神經網絡的視頻壓縮方法,其特征在于,所述步驟S3中,首先,設置一個滑動的M×N的窗口,在視頻的前一幀對應的局部區域內挑選出均方誤差最小的塊區域作為最佳匹配塊,同時兼顧結果和復雜度,設定(M+a)×(N+a)的搜索范圍,進行運動估計算法,計算幀間預測的均方差,其中M和N為塊尺寸,a為向外搜索的范圍。
3.根據權利要求1所述的基于深度神經網絡的視頻壓縮方法,其特征在于,所述步驟S7中,解碼端的神經網絡同編碼端的神經網絡對稱,將固定長度碼流的壓縮數據通過解碼端還原成M×N的固定塊,并最后重新拼接成原圖像,即為恢復的壓縮之后的圖像。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京大學,未經南京大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710758241.6/1.html,轉載請聲明來源鉆瓜專利網。





