[發(fā)明專利]基于集成學習和概率模型的快速VVC幀內預測方法有效
| 申請?zhí)枺?/td> | 202010618890.8 | 申請日: | 2020-06-30 |
| 公開(公告)號: | CN111711815B | 公開(公告)日: | 2021-09-28 |
| 發(fā)明(設計)人: | 趙鐵松;黃雨航;吳陸狄;徐藝文;王楷 | 申請(專利權)人: | 福州大學 |
| 主分類號: | H04N19/124 | 分類號: | H04N19/124;H04N19/593;G06N3/04;G06N20/20 |
| 代理公司: | 福州元創(chuàng)專利商標代理有限公司 35100 | 代理人: | 陳明鑫;蔡學俊 |
| 地址: | 350108 福建省福州市*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 集成 學習 概率 模型 快速 vvc 預測 方法 | ||
1.一種基于集成學習和概率模型的快速VVC幀內預測方法,其特征在于,包括以下步驟:
步驟S1:基于集成學習并利用視頻序列的時空域相關性,預測得到不同編碼單元的深度信息;
步驟S2:使用時空域相鄰已編碼CU的劃分模式對未編碼CU的劃分模式進行預測,并按概率大小排序得到劃分模式排序表;
步驟S3:根據得到的不同編碼單元的深度信息和劃分模式排序表,提前終止CU的劃分;所述步驟S1具體為:
步驟S11:選定深度圖參考單元,若當前幀領域存在已編碼CU,就選定其深度圖單元信息作為參考,否則選定前一幀相應位置的深度圖單元信息作為參考;
步驟S12:讀取數據集,對數據樣本進行預處理,并送入三個不同的卷積神經網絡進行網絡訓練,得到基于集成學習的深度預測模型;
步驟S13:將多尺度參考信息分別送入步驟S12訓練好的三個卷積神經網絡中,得到三個深度圖單元預測值U1、U2及U3,使用多數投票法集成三個卷積神經網絡的預測結果作為最終的輸出;
步驟S14、獲得CU預測深度圖后,使用預測深度圖的平均值作為最終CU的預測深度DO;
所述選定深度圖參考單元的函數表達式如下:
其中X(x,y,t)表示第t幀位于(x,y)位置的深度圖單元,其中Δx和Δy表示-n到n的整數。
2.根據權利要求1所述基于集成學習和概率模型的快速VVC幀內預測方法,其特征在于,所述最終CU的預測深度DO具體為:
其中:表示向下取整函數;K和Uk分別表示該CU所包含的深度單元數目及該CU所包含的第k個深度單元的預測值。
3.根據權利要求1所述的基于集成學習和概率模型的快速VVC幀內預測方法,其特征在于,所述步驟S2具體為:
步驟S21:獲取參考CU的信息,選取13個時空域相鄰的用于劃分模式預測的參考CU構成集合S;
步驟S22:選取集合S中所有參考CU的劃分模式構成集合R;
步驟S23:計算屬于集合R的劃分模式M成為最佳劃分模式的概率P(bm=M|M∈R);
步驟S24:在獲得了所有劃分模式M成為最佳劃分模式的概率之后,按照概率值大小對屬于R的劃分模式進行排序,將其余不屬于R的模式排在之后,得到最佳劃分模式排序表;
步驟S25:使用劃分模式排序表進行劃分模式決策,若當前劃分模式的RD代價值Rcur大于目前獲得的最小RD代價值Rmin,則跳過其它還未測試的劃分模式以減少編碼復雜度,否則測試下一個模式并更新Rcur與Rmin。
4.根據權利要求3所述的基于集成學習和概率模型的快速VVC幀內預測方法,其特征在于,所述集合S的表達式如下:
S={Sref,Scur}
其中Sref及Scur分別表示位于當前幀及前一幀的參考CU集合,Sref及Scur的定義分別如下:
Sref={C(x+iw,y+jh,t-1)|-1≤i≤1,-1≤j≤1,i∈Z,j∈Z}
Scur={C(x-w,y-h,t),C(x,y-h,t),C(x+w,y-h,t),C(x-w,y,t)}
其中w和h分別表示CU的像素值長度和寬度。
5.根據權利要求3所述的基于集成學習和概率模型的快速VVC幀內預測方法,其特征在于,所述集合R具體為:
R={MCU|CU∈S}
其中MCU表示CU的劃分模式,S為步驟S21獲取的集合。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于福州大學,未經福州大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010618890.8/1.html,轉載請聲明來源鉆瓜專利網。





