[發明專利]基于字典學習和雙邊正則的圖像超分辨率重建方法有效
| 申請號: | 201310189783.8 | 申請日: | 2013-05-21 |
| 公開(公告)號: | CN103295197A | 公開(公告)日: | 2013-09-11 |
| 發明(設計)人: | 緱水平;焦李成;劉淑珍;楊淑媛;吳建設;馬文萍;馬晶晶 | 申請(專利權)人: | 西安電子科技大學 |
| 主分類號: | G06T5/00 | 分類號: | G06T5/00 |
| 代理公司: | 陜西電子工業專利中心 61205 | 代理人: | 王品華;朱紅星 |
| 地址: | 710071*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 字典 學習 雙邊 正則 圖像 分辨率 重建 方法 | ||
技術領域
本發明屬于圖像處理技術領域,涉及一種圖像的超分辨率重建方法,可用于自然圖像、遙感圖像和醫學圖像的超分辨率重建。
背景技術
圖像超分辨率重建是利用單幅或多幅低分辨率圖像重建出一幅高分辨率圖像的逆問題。為了解決這個問題,一些基于插值的方法和基于模型的重建方法被提出。插值的方法包括最近鄰插值法和雙線性插值法等,這類方法簡單快速,但容易導致邊緣模糊,達不到好的重建效果;基于模型的方法包括迭代反投影法、最大后驗概率法、凸集投影法等,這類方法雖然能夠產生較好的重建效果,但是重建模型的參數很難估計,提高圖像分辨率的能力有限。隨著機器學習技術的發展,大量的基于學習的超分辨率重建算法被提出。近年來比較流行的是Yang等人提出的基于稀疏表示的字典學習超分辨率重建方法,他們假設多數自然圖像具有相似的結構表示基元,例如邊緣、紋理等。自此,許多基于字典學習的重建方法得到了發展。
多數基于字典學習的重建方法可以有效利用外來高分辨樣本圖像的先驗信息,但重建的圖像質量存在不穩定性。當選擇的高分辨樣本圖像不能有效提供待超圖像丟失的信息時,重建效果會下降,并且這類方法忽略了待超圖像本身的先驗知識;另外,有些方法僅利用低分辨率圖像自身的結構相似性實現分辨率提升,雖然充分利用了待超圖像自身的先驗信息,但該類方法受制于待超圖像自身相似性的強弱,不能保證重建結果。
發明內容
本發明的目的在于針對基于字典學習的圖像超分辨重建方法的缺點,提出一種基于字典學習和雙邊正則的圖像超分辨率重建方法,充分利用待超低分辨圖像提供的附加信息和外來的高分辨樣本庫的先驗信息,提高圖像重建的質量。
為實現上述目的,本發明的技術方案是:通過引入一個高分辨圖像樣本庫,聯合待超低分辨率圖像的附加先驗信息構造字典對,在降質模型的約束下設計目標優化函數,通過多次迭代得到高分辨圖像。具體步驟包括如下:
(1)輸入低分辨率圖像Il,對該低分辨率圖像Il作雙線性插值處理,得到初始的高分辨率圖像
(2)對初始高分辨率圖像以0.8的比率做5個尺度的雙線性插值處理,得到5幅插值圖像O1,O2,O3,O4,O5,對5幅插值圖像O1,O2,O3,O4,O5進行自適應的聚類字典訓練,得到初始的內字典集合d0和R個聚類中心Ccenter={Ci,i=1,2,...,R},用R個聚類中心Ccenter={Ci,i=1,2,...,R}指導高分辨率樣本庫中的圖像O1',O'2,O3'的字典訓練,得到初始的外字典集合D0;
(3)在初始高分辨率圖像上計算初始的正則權值矩陣W0;
(4)設迭代次數為n,n=0,1,2,...,299,初始迭代n=0,重建超分辨率圖像:
4a)輸入初始迭代圖像根據初始的正則權值矩陣W0,對輸入圖像進行正則優化,得到優化圖像
4b)應用初始的內字典集合d0,初始的外字典集合D0,R個聚類中心Ccenter={Ci,i=1,2,...,R}和輸入的迭代圖像對優化圖像進行重建,得到重建后的圖像
4c)設誤差精度ε=2e-9,N為重建圖像中總的圖像塊個數,根據所述參數ε,N,判斷迭代是否終止,若則終止迭代,輸出重建圖像否則將重建圖像作為新的迭代輸入圖像,迭代次數加1,即n=n+1,并設指示參數p1=140;
4d)根據參數p1,n判斷是否更新初始的外字典集合D0,初始的內字典集合d0和初始的權值矩陣W0,若n為p1的整數倍,則將初始的內字典集合D0更新為Dn,將初始的內字典集合d0更新為dn,將初始的權值矩陣W0更新為Wn;否則不更新,返回步驟4a)。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安電子科技大學,未經西安電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201310189783.8/2.html,轉載請聲明來源鉆瓜專利網。





