[發(fā)明專利]一種基于有監(jiān)督數(shù)據(jù)驅(qū)動(dòng)的單目視頻深度估計(jì)方法有效
| 申請(qǐng)?zhí)枺?/td> | 201611092073.3 | 申請(qǐng)日: | 2016-12-01 |
| 公開(公告)號(hào): | CN106599805B | 公開(公告)日: | 2019-05-21 |
| 發(fā)明(設(shè)計(jì))人: | 曹治國;李睿博;肖陽;鮮可;李然;張潤澤;趙富榮;張驍?shù)?/a> | 申請(qǐng)(專利權(quán))人: | 華中科技大學(xué) |
| 主分類號(hào): | G06K9/00 | 分類號(hào): | G06K9/00;G06K9/62 |
| 代理公司: | 武漢東喻專利代理事務(wù)所(普通合伙) 42224 | 代理人: | 方可 |
| 地址: | 430074 湖北*** | 國省代碼: | 湖北;42 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 監(jiān)督 數(shù)據(jù) 驅(qū)動(dòng) 目視 深度 估計(jì) 方法 | ||
本發(fā)明公開了一種基于有監(jiān)督數(shù)據(jù)驅(qū)動(dòng)的單目視頻深度估計(jì)方法,包括以下步驟:(1)獲取樣本視頻序列以及相應(yīng)的深度序列,作為訓(xùn)練數(shù)據(jù)集合;(2)使用基于跟蹤的超像素分割方法對(duì)訓(xùn)練數(shù)據(jù)集合進(jìn)行分割,提取各個(gè)分割單元的特征;(3)構(gòu)建結(jié)合卷積神經(jīng)網(wǎng)絡(luò)與時(shí)空條件隨機(jī)場(chǎng)的網(wǎng)絡(luò)模型;(4)使用訓(xùn)練數(shù)據(jù)集合以及分割結(jié)果與相應(yīng)特征,對(duì)深度時(shí)空卷積神經(jīng)網(wǎng)絡(luò)場(chǎng)模型進(jìn)行訓(xùn)練;(5)對(duì)待估計(jì)的視頻序列進(jìn)行分割,提取各個(gè)分割單元的特征;(6)將待估計(jì)的視頻序列以及分割結(jié)果與相應(yīng)特征,輸入已經(jīng)訓(xùn)練好的模型中,得到深度序列。本發(fā)明兼顧時(shí)空一致性與層次關(guān)系準(zhǔn)確性,提高了單目立體視頻質(zhì)量。
技術(shù)領(lǐng)域
本發(fā)明屬于模式識(shí)別技術(shù)領(lǐng)域,具體涉及一種基于有監(jiān)督數(shù)據(jù)驅(qū)動(dòng)的單目視頻深度估計(jì)方法,用于從單目視頻中自動(dòng)地估計(jì)視頻序列的深度值。
背景技術(shù)
隨著科技的發(fā)展,3D電影、虛擬現(xiàn)實(shí)正在豐富著人們的生活。然而,無論是已經(jīng)風(fēng)靡全球的3D電影還是當(dāng)前方興未艾的虛擬現(xiàn)實(shí)都面臨一個(gè)嚴(yán)重的問題,那就是目前3D資源的匱乏。因此,通過單目視頻預(yù)測(cè)深度,再通過視點(diǎn)合成得到雙目立體視頻,成為了解決目前3D資源匱乏的主要方法。
在這一技術(shù)途徑中,單目視頻的深度估計(jì)作為其重要的組成部分得到了科研人員的廣泛關(guān)注。目前主要的單目深度預(yù)測(cè)方法如下:從運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM,structure fromMotion)的深度估計(jì)方法[Ozden K E,Schindler K,Gool L V.Multibody Structure-from-Motion in Practice[J].Pattern Analysis&Machine Intelligence IEEETransactions on,2010,32(6):1134-1141]、基于信息采集的深度估計(jì)法[Karsch K,LiuC,Kang S B.Depth extraction from video using non-parametric sampling[C]//European Conference on Computer Vision.Springer Berlin Heidelberg,2012:775-788]以及基于有監(jiān)督學(xué)習(xí)的深度估計(jì)方法[Liu F,Shen C,Lin G.Deep convolutionalneural fields for depth estimation from a single image[C]//Proceedings of theIEEE Conference on Computer Vision and Pattern Recognition.2015:5162-5170]。運(yùn)動(dòng)恢復(fù)結(jié)構(gòu)(SFM)的深度估計(jì)方法對(duì)場(chǎng)景結(jié)構(gòu)的要求高,算法復(fù)雜度高,無法應(yīng)對(duì)非剛體運(yùn)動(dòng)與變化。基于信息采集的估計(jì)方法對(duì)于數(shù)據(jù)庫已知或相似的場(chǎng)景可以得到很好的結(jié)果,但是對(duì)于數(shù)據(jù)庫之外的場(chǎng)景缺乏推斷能力。基于有監(jiān)督學(xué)習(xí)的深度估計(jì)方法是機(jī)器學(xué)習(xí)方法的一種,通過對(duì)計(jì)算機(jī)進(jìn)行深度訓(xùn)練,使其熟悉場(chǎng)景特征與對(duì)應(yīng)深度值之間的關(guān)系,從而對(duì)其它輸入圖像進(jìn)行深度分配,取得了相當(dāng)準(zhǔn)確的結(jié)果。但是目前基于機(jī)器學(xué)習(xí)的深度估計(jì)方法主要針對(duì)單張圖片進(jìn)行預(yù)測(cè),若直接用于單目視頻深度估計(jì)任務(wù)中,得到預(yù)測(cè)結(jié)果的時(shí)空一致性較差,無法滿足用戶的需求。
由上述內(nèi)容可見,在基于有監(jiān)督學(xué)習(xí)的深度估計(jì)方法中,預(yù)測(cè)結(jié)果的時(shí)空一致程度成為了制約深度序列質(zhì)量的關(guān)鍵。如果能夠兼顧深度序列的時(shí)空一致性與深度層次關(guān)系的準(zhǔn)確性就能夠極大地提升預(yù)測(cè)結(jié)果的質(zhì)量,提供更精彩的3D資源。
發(fā)明內(nèi)容
本發(fā)明提供一種基于有監(jiān)督數(shù)據(jù)驅(qū)動(dòng)的單目視頻深度估計(jì)方法,以視頻數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行有監(jiān)督訓(xùn)練,目的在于克服現(xiàn)有方法中存在的問題,得到兼顧時(shí)空一致性與層次關(guān)系準(zhǔn)確性的深度序列預(yù)測(cè)結(jié)果,以提高單目立體視頻的質(zhì)量。
為了實(shí)現(xiàn)上述目的,本發(fā)明提供一種基于有監(jiān)督數(shù)據(jù)驅(qū)動(dòng)的單目視頻深度估計(jì)方法,包括以下步驟:
(1)獲取樣本視頻序列以及相應(yīng)的深度序列,作為本發(fā)明的訓(xùn)練數(shù)據(jù)集合;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于華中科技大學(xué),未經(jīng)華中科技大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201611092073.3/2.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
G06K 數(shù)據(jù)識(shí)別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識(shí)別印刷或書寫字符或者用于識(shí)別圖形,例如,指紋的方法或裝置
G06K9-03 .錯(cuò)誤的檢測(cè)或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個(gè)筆畫組成的,而且每個(gè)筆畫表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 在即時(shí)通信中提供即時(shí)監(jiān)督功能的方法及系統(tǒng)
- 一種監(jiān)督事件的生成裝置
- 一種資產(chǎn)托管監(jiān)督任務(wù)的處理方法及裝置
- 一種監(jiān)督方法及裝置
- 基于自監(jiān)督學(xué)習(xí)的標(biāo)簽比例學(xué)習(xí)模型的訓(xùn)練方法和設(shè)備
- 一種衛(wèi)生監(jiān)督對(duì)象尋址方法、電子設(shè)備及存儲(chǔ)介質(zhì)
- 一種機(jī)器人表情調(diào)用方法和家用機(jī)器人
- 計(jì)算機(jī)視覺訓(xùn)練系統(tǒng)和用于訓(xùn)練計(jì)算機(jī)視覺系統(tǒng)的方法
- 一種基于廠區(qū)智能管理系統(tǒng)的工廠設(shè)備監(jiān)督系統(tǒng)
- 信息化綜合監(jiān)督系統(tǒng)及方法
- 數(shù)據(jù)顯示系統(tǒng)、數(shù)據(jù)中繼設(shè)備、數(shù)據(jù)中繼方法、數(shù)據(jù)系統(tǒng)、接收設(shè)備和數(shù)據(jù)讀取方法
- 數(shù)據(jù)記錄方法、數(shù)據(jù)記錄裝置、數(shù)據(jù)記錄媒體、數(shù)據(jù)重播方法和數(shù)據(jù)重播裝置
- 數(shù)據(jù)發(fā)送方法、數(shù)據(jù)發(fā)送系統(tǒng)、數(shù)據(jù)發(fā)送裝置以及數(shù)據(jù)結(jié)構(gòu)
- 數(shù)據(jù)顯示系統(tǒng)、數(shù)據(jù)中繼設(shè)備、數(shù)據(jù)中繼方法及數(shù)據(jù)系統(tǒng)
- 數(shù)據(jù)嵌入裝置、數(shù)據(jù)嵌入方法、數(shù)據(jù)提取裝置及數(shù)據(jù)提取方法
- 數(shù)據(jù)管理裝置、數(shù)據(jù)編輯裝置、數(shù)據(jù)閱覽裝置、數(shù)據(jù)管理方法、數(shù)據(jù)編輯方法以及數(shù)據(jù)閱覽方法
- 數(shù)據(jù)發(fā)送和數(shù)據(jù)接收設(shè)備、數(shù)據(jù)發(fā)送和數(shù)據(jù)接收方法
- 數(shù)據(jù)發(fā)送裝置、數(shù)據(jù)接收裝置、數(shù)據(jù)收發(fā)系統(tǒng)、數(shù)據(jù)發(fā)送方法、數(shù)據(jù)接收方法和數(shù)據(jù)收發(fā)方法
- 數(shù)據(jù)發(fā)送方法、數(shù)據(jù)再現(xiàn)方法、數(shù)據(jù)發(fā)送裝置及數(shù)據(jù)再現(xiàn)裝置
- 數(shù)據(jù)發(fā)送方法、數(shù)據(jù)再現(xiàn)方法、數(shù)據(jù)發(fā)送裝置及數(shù)據(jù)再現(xiàn)裝置
- 電流驅(qū)動(dòng)裝置的驅(qū)動(dòng)電路,電流驅(qū)動(dòng)設(shè)備及其驅(qū)動(dòng)方法
- 驅(qū)動(dòng)電路、驅(qū)動(dòng)模塊以及電機(jī)驅(qū)動(dòng)裝置
- 驅(qū)動(dòng)電路、驅(qū)動(dòng)模塊和電機(jī)驅(qū)動(dòng)設(shè)備
- 驅(qū)動(dòng)單元、驅(qū)動(dòng)方法、驅(qū)動(dòng)電路及顯示面板
- 驅(qū)動(dòng)電路、驅(qū)動(dòng)芯片及其驅(qū)動(dòng)方法
- 驅(qū)動(dòng)電機(jī)(電驅(qū)動(dòng))
- 驅(qū)動(dòng)電機(jī)(節(jié)能驅(qū)動(dòng))
- 驅(qū)動(dòng)電機(jī)(設(shè)備驅(qū)動(dòng))
- 驅(qū)動(dòng)機(jī)(驅(qū)動(dòng)軸)
- 驅(qū)動(dòng)機(jī)(電驅(qū)動(dòng))





