[發(fā)明專利]一種基于精簡卷積神經(jīng)網(wǎng)絡(luò)的快速視頻超分辨率重建方法有效
| 申請?zhí)枺?/td> | 201810467095.6 | 申請日: | 2018-05-16 |
| 公開(公告)號: | CN108830790B | 公開(公告)日: | 2022-09-13 |
| 發(fā)明(設(shè)計)人: | 蔣剛毅;潘志勇;郁梅;謝登梅;彭宗舉;陳芬;邵華 | 申請(專利權(quán))人: | 寧波大學(xué) |
| 主分類號: | G06T3/40 | 分類號: | G06T3/40 |
| 代理公司: | 寧波甬致專利代理有限公司 33228 | 代理人: | 李迎春 |
| 地址: | 315211 浙*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 精簡 卷積 神經(jīng)網(wǎng)絡(luò) 快速 視頻 分辨率 重建 方法 | ||
1.一種基于精簡卷積神經(jīng)網(wǎng)絡(luò)的快速視頻超分辨率重建方法,其特征在于:包括以下步驟:
(1)、建立網(wǎng)絡(luò)結(jié)構(gòu):a、將當(dāng)前幀、當(dāng)前幀的前兩幀以及當(dāng)前幀的后兩幀,共五幀作為系統(tǒng)的輸入量,表示為XT,索引T∈{t-2,t-1,t,t+1,t+2},其中t表示當(dāng)前時刻,并用Yt表示重建的當(dāng)前視頻幀;b、將輸入量XT通過特征提取及通道融合法獲取到融合輸出量,記為H1,然后將H1通過特征映射法獲取到映射后的輸出量,記為H2,再將H2通過反卷積重建法得到網(wǎng)絡(luò)結(jié)構(gòu)中重建的當(dāng)前視頻幀Yt;
所述的輸入量XT通過特征提取及通道融合法獲取到融合輸出量的具體步驟為:(b-01)、首先采用濾波器對輸入量XT進行卷積提取特征,表示成高維向量,記為H1T,H1T=W1T*XT+b1T,并采用參數(shù)線性糾正單元函數(shù)對H1T進行非線性操作:H1T=max(H1T,0)+a1Tmin(0,H1T),其中‘*’表示卷積操作,W1T表示對應(yīng)索引T的大小為f1T×f1T×c1T×n1T的濾波器,f1T表示濾波器W1T的尺寸,c1T表示輸入XT的通道數(shù),n1T表示濾波器W1T的個數(shù),b1T表示對應(yīng)索引T的1×n1T的偏置項,a1T表示H1T的負(fù)數(shù)部分的系數(shù),該層操作記為Conv(f1T×f1T×c1T×n1T)+PReLU,其中PReLU表示參數(shù)線性糾正單元函數(shù);(b-02)、然后采用通道融合層對上述各個索引的H1T進行融合,融合后的輸出記為H1,表示為:H1=[H1t-2,H1t-1,H1t,H1t+1,H1t+2],其中,[]操作表示將H1T在通道維度上進行連接,即經(jīng)過第一部分特征提取及通道融合層后得到的H1包含了所有輸入的n1T維特征;
所述的將H1通過特征映射法獲取到映射后的輸出量的具體步驟為:(b-11)、首先利用通道收縮模塊對融合后的輸出量H1進行降維,降維后的輸出記為H2S,H2S=max(W2S*H1+b2S,0)+a2Smin(0,W2S*H1+b2S),其中,W2S表示大小為f2S×f2S×c2S×n2S的濾波器,b2S表示1×n2S的偏置項,a2S表示W(wǎng)2S*H1+b2S的負(fù)數(shù)部分的系數(shù),該層操作記為Conv(f2S×f2S×c2S×n2S)+PReLU,其中PReLU表示參數(shù)線性糾正單元函數(shù);(b-12)、然后采用m個大小為f2M×f2M×c2M×n2M的濾波器W2M和1×n2M的偏置項b2M對H2S進行多級映射,并通過PReLU函數(shù)進行非線性變換得到特征向量,得到的特征向量記為H2M,該層操作記為m×[Conv(f2M×f2M×c2M×n2M)+PReLU];(b-13)、接著采用通道擴展模塊對H2M進行升維,升維后的輸出記為H2,H2=max(W2E*H2M+b2E,0)+a2Emin(0,W2E*H2M+b2E),其中,W2E表示大小為f2E×f2E×c2E×n2E的濾波器,b2E表示1×n2E的偏置項,a2E表示W(wǎng)2E*H2M+b2E的負(fù)數(shù)部分的系數(shù),該操作記為Conv(f2E×f2E×c2E×n2E)+PReLU;
(2)、訓(xùn)練網(wǎng)絡(luò)結(jié)構(gòu):將訓(xùn)練集記為其中Xt(k)表示t時刻第k個視頻樣本的低分辨率視頻幀訓(xùn)練子圖像,Zt(k)表示t時刻第k個視頻樣本的原始全分辨視頻幀訓(xùn)練子圖像,N表示訓(xùn)練樣本個數(shù),Xt(k)與Zt(k)的縮放比例因子s=2,3,4;用Yt(k)表示重建得到的高分辨率視頻幀子圖像,采用均方差作為目標(biāo)函數(shù),最小化Yt(k)與Zt(k)之間的誤差,并估計各網(wǎng)絡(luò)結(jié)構(gòu)中各層的網(wǎng)絡(luò)參數(shù)θ,用隨機梯度下降法對網(wǎng)絡(luò)參數(shù)θ進行更新;為了快速得到不同縮放因子s下的重建模型,先從零開始訓(xùn)練s=3的模型A,再相應(yīng)地微調(diào)網(wǎng)絡(luò)末端的反卷積層的參數(shù),而保持所有卷積層參數(shù)不變,分別得到s=2和s=4的模型B和模型C;
(3)、利用訓(xùn)練得到的模型A、模型B以及模型C對相應(yīng)縮放因子s下的低分辨率視頻幀XT進行超分辨率重建,最終得到對應(yīng)縮放因子s下的重建的當(dāng)前視頻幀Yt。
2.根據(jù)權(quán)利要求1所述的一種基于精簡卷積神經(jīng)網(wǎng)絡(luò)的快速視頻超分辨率重建方法,其特征在于:上述步驟(1)中,反卷積重建法的具體方法為:對升維后的輸出H2反卷積得到網(wǎng)絡(luò)結(jié)構(gòu)中重建的當(dāng)前視頻幀Yt,其中,表示反卷積操作,可視為卷積操作的逆運算,WD3和bD3分別表示大小為fD3×fD3×cD3×nD3的反卷積濾波器和1×nD3維向量的偏置項,該層操作記為:Deconv(fD3×fD3×cD3×nD3)。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于寧波大學(xué),未經(jīng)寧波大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810467095.6/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 卷積運算處理方法及相關(guān)產(chǎn)品
- 一種卷積神經(jīng)網(wǎng)絡(luò)的計算方法及系統(tǒng)
- 卷積運算方法及系統(tǒng)
- 卷積運算方法、裝置及系統(tǒng)
- 深度神經(jīng)網(wǎng)絡(luò)裁剪方法、裝置及電子設(shè)備
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法和圖像處理裝置
- 卷積神經(jīng)網(wǎng)絡(luò)及基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法
- 一種圖像處理方法、裝置以及計算機存儲介質(zhì)
- 用于卷積神經(jīng)網(wǎng)絡(luò)的卷積運算裝置
- 基于FPGA實現(xiàn)圖像識別的方法、裝置、設(shè)備及存儲介質(zhì)
- 硬件神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換方法、計算裝置、軟硬件協(xié)作系統(tǒng)
- 生成較大神經(jīng)網(wǎng)絡(luò)
- 神經(jīng)網(wǎng)絡(luò)的生成方法、生成裝置和電子設(shè)備
- 一種舌診方法、裝置、計算設(shè)備及計算機存儲介質(zhì)
- 學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
- 脈沖神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換方法及相關(guān)轉(zhuǎn)換芯片
- 圖像處理方法、裝置、可讀存儲介質(zhì)和計算機設(shè)備
- 一種適應(yīng)目標(biāo)數(shù)據(jù)集的網(wǎng)絡(luò)模型微調(diào)方法、系統(tǒng)、終端和存儲介質(zhì)
- 用于重構(gòu)人工神經(jīng)網(wǎng)絡(luò)的處理器及其操作方法、電氣設(shè)備
- 一種圖像神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化方法及裝置





