[發(fā)明專利]一種基于DOF的恰可察覺誤差模型的感知立體視頻編碼方法在審
| 申請?zhí)枺?/td> | 201410775784.5 | 申請日: | 2014-12-15 |
| 公開(公告)號: | CN104469386A | 公開(公告)日: | 2015-03-25 |
| 發(fā)明(設(shè)計)人: | 鄭喆坤;薛飛;劉紅民;崔玉;金重圭;尹仁龍;權(quán)炳賢 | 申請(專利權(quán))人: | 西安電子科技大學(xué) |
| 主分類號: | H04N19/597 | 分類號: | H04N19/597;H04N19/117;H04N19/147;H04N19/124 |
| 代理公司: | 西安吉盛專利代理有限責(zé)任公司 61108 | 代理人: | 張恒陽 |
| 地址: | 710071 陜西省*** | 國省代碼: | 陜西;61 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 dof 可察覺 誤差 模型 感知 立體 視頻 編碼 方法 | ||
技術(shù)領(lǐng)域
本發(fā)明屬于視頻處理技術(shù)領(lǐng)域,具體涉及一種感知立體視頻編碼方法,特別是一種基于DOF的恰可察覺誤差模型的感知立體視頻編碼方法。
背景技術(shù)
隨著3D立體視頻媒體技術(shù)的飛速發(fā)展,人們對逼真的視覺體驗需求也在逐漸增強(qiáng)。由立體攝像機(jī)捕獲的S3D視頻可以給用戶提供更加生動的體驗。不幸的是,與現(xiàn)實場景相比,S3D顯示器經(jīng)常會在3D效果上產(chǎn)生一些失真,這些失真會對人類雙視視覺造成刺激,引起不適和視覺疲勞。它們通常是由不恰當(dāng)?shù)钠聊灰暡睿薮笠暡畈町愐约安蛔匀坏哪:弯J化造成的。因此,對于立體視頻感知編碼,在保證存儲空間和傳輸帶寬的前提下,有效的提高視覺舒適度和視頻質(zhì)量是非常有必要的。為了實現(xiàn)這一點,基于人類視覺深度感知的立體視頻編碼是非常有研究價值的。
由于最終接收視頻信號的通常是人類視覺系統(tǒng)(HVS),所以將人類視覺感知因子融合到視頻編碼結(jié)構(gòu)將能夠更好地保持視頻的感知質(zhì)量。立體視頻編碼就是要在消除視頻序列的空間、時間冗余的同時,重點考慮了視間冗余信息的壓縮,在不損失視頻質(zhì)量的前提下降低碼率。目前,大量的感知視頻編碼方法被提出。有基于顯著度的方法、基于ROI的方法、基于分析和合成的方法等,其中結(jié)合人類視覺系統(tǒng)掩蔽機(jī)能的恰可察覺誤差模型(JND)的編碼方法起到了重要作用。JND模型通過模擬人類視覺感知冗余得到一個靈敏度閾值,當(dāng)編碼失真低于這個閾值時是不能被肉眼所感知的。該失真閾值是客觀存在于每個編碼信號上的并且可用于重新分配碼率從而達(dá)到編碼的目的。
現(xiàn)有的恰可察覺誤差模型,通常包括DCT域JND模型和像素域JND模型。DCT域JND模型考慮了通道間的交互作用,空間對比度敏感效應(yīng)和時間對比度敏感效應(yīng),并結(jié)合了人類視覺頻率效應(yīng)。它利用每個頻率段敏感度的對比靈敏度函數(shù)(CSF)把人眼的視覺特性融入了模型中,但是算法相對像素域較為復(fù)雜。
2013年Dongdong?Zhang和Lijing?Gao等在IEEE?International?Conference?on?Signal?and?Image?Processing?Applications(ICSIPA)上名為“A?DCT-Domain?JND?Model?Based?on?Visual?Attention?for?Image”的論文中提出了一種DCT域的基于ROI的JND模型。它結(jié)合了調(diào)制函數(shù)的建立,在頻率域JND閾值上基于圖像顯著度和紋理特征,同時考慮了視覺注意效應(yīng)和視覺掩蔽效應(yīng),提出了一種新穎的DCT域JND模型。可有效用于圖像、視頻編碼,但是變換域的計算量較大。
與DCT域相比像素域JND模型算法簡單,計算量較小。空間域JND模型、時域權(quán)重JND模型、中央凹JND模型以及基于深度圖的JND模型。空間域JND模型有效的體現(xiàn)了亮度、紋理掩蔽效應(yīng),而時域權(quán)重JND模型考慮了時域掩蔽效應(yīng)。中央凹JND模型表現(xiàn)了雙目中央凹掩蔽效應(yīng),它是集成了人類視網(wǎng)膜中央凹特征和傳統(tǒng)的視覺敏感度特征得到的。但是由于這些模型沒有考慮視間冗余的特性,所以并不能準(zhǔn)確的用于雙目立體視頻編碼。
2011年Lei?Zhang和Qing?Peng等在IEEE?Transactions?on?Broadcasting上一篇名為“Stereoscopic?Perceptual?Video?Coding?Based?on?Just-Noticeable-Distortion?Profile”的論文中提出了一種基于立體顯示器的中央凹權(quán)重恰可覺察失真模型。其根據(jù)觀察者距顯示器的距離和人類視覺的關(guān)注點間的角度信息得到每個像素的中央凹權(quán)重恰可覺察失真閾值。并利用塊自適應(yīng)殘差預(yù)處理器調(diào)整殘差幀,用于視頻編碼,達(dá)到了較好的立體視頻編碼效果。但是該方法對立體顯示器的依賴性較高,可擴(kuò)展性不強(qiáng),使得編碼軟件的編碼效率降低。
2013年在名為“一種基于雙目恰可察覺失真的立體視頻碼率控制方案”的NO.CN103414889A專利中提出了一種基于亮度JND模型的雙目恰可察覺失真模型。該方法通過對目標(biāo)碼率的計算來實現(xiàn)碼率控,分別針對的是視點層,圖像組層,幀層,片組層和宏塊層,通過在左視點每個像素位置上偏移一個視差矢量,得到的像素亮度對比度來計算該JND模型,它會過分依賴于左視點,將基于左視得到的閾值用于右視圖,并不能充分體現(xiàn)雙目視差冗余信息。
發(fā)明內(nèi)容
本發(fā)明的目的在于解決上述現(xiàn)有技術(shù)的不足,提出了一種基于DOF的恰可察覺誤差模型的感知立體視頻編碼方法。
實現(xiàn)本發(fā)明目的的技術(shù)方案是:一種基于DOF的恰可察覺誤差模型的
感知立體視頻編碼方法,包括如下步驟:
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于西安電子科技大學(xué),未經(jīng)西安電子科技大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201410775784.5/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 動態(tài)調(diào)整光刻成像設(shè)備中的聚焦透鏡焦深的方法
- 用于工業(yè)機(jī)器人的多DOF傳感器
- 一種結(jié)合串聯(lián)重復(fù)序列(TTTACAC)5的Dof蛋白質(zhì)
- 基于視頻內(nèi)容的指示信息標(biāo)識方法、系統(tǒng)及存儲介質(zhì)
- 使用拼接和重新投影相關(guān)元數(shù)據(jù)發(fā)送或接收6DOF視頻的方法和裝置
- 水稻分子標(biāo)記DOF8及其應(yīng)用、一種利用水稻分子標(biāo)記DOF8鑒別粳稻和秈稻的方法
- 一種分離式手柄、虛擬現(xiàn)實設(shè)備及虛擬現(xiàn)實追蹤系統(tǒng)
- 車輛姿勢確定
- VR一體機(jī)的6DoF數(shù)據(jù)處理方法和裝置
- 一種分離式手柄、虛擬現(xiàn)實設(shè)備及虛擬現(xiàn)實追蹤系統(tǒng)





