[發明專利]基于深度稀疏編碼的自然圖像壓縮感知重建方法有效
| 申請號: | 201710306725.7 | 申請日: | 2017-05-04 |
| 公開(公告)號: | CN107154064B | 公開(公告)日: | 2019-07-23 |
| 發明(設計)人: | 董偉生;高海濤;石光明;謝雪梅;李甫 | 申請(專利權)人: | 西安電子科技大學 |
| 主分類號: | G06T11/00 | 分類號: | G06T11/00 |
| 代理公司: | 陜西電子工業專利中心 61205 | 代理人: | 王品華 |
| 地址: | 710071 陜*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 自然圖像 變換系數 觀測向量 重建 觀測數據 模型參數 稀疏編碼 壓縮感知 迭代閾值法 正交變換域 測試 計算參數 圖像變換 圖像分塊 系數重建 逆變換 上變換 殘差 可用 重構 恢復 保存 清晰 重復 更新 | ||
本發明公開了一種基于深度稀疏編碼的自然圖像壓縮感知重建方法,主要解決現有方法難以快速、精確的用系數重建自然圖像的問題。其實現方案是:1)對圖像分塊并在正交變換域上變換,計算變換系數的觀測向量;2)用迭代閾值法求出觀測向量的恢復變換系數,并更新計算參數;3)計算2)中變換系數的觀測向量,求出其與1)中觀測向量的殘差量;4)重復步驟1)—3)得到訓練好的模型,并保存模型參數;5)將測試觀測數據與模型參數輸入到訓練好的模型,得到與測試觀測數據對應的圖像變換系數;6)對5)中的變換系數進行逆變換,得到最終重建的自然圖像。本發明重建的自然圖像清晰,且重構速度很快,可用于對自然圖像的恢復。
技術領域
本發明屬于圖像處理領域,具體涉及一種自然圖像壓縮感知重建方法,可用于采樣的自然圖像恢復。
背景技術
隨著媒體技術的發展,海量圖像數據在實時傳輸、存儲方面都面臨著巨大的挑戰。壓縮感知技術的提出使得這些問題在理論上開辟了新的思路,令問題得到了有效解決。壓縮感知理論認為,若信號在某一種變換基下具有稀疏性,則可以對該信號進行隨機投影觀測,并以較少的觀測值通過信號的先驗信息對其進行精確重構,它的模型是在求解觀測數據保真度約束下的范數最優化問題。
針對上述的壓縮感知模型,不同的范數約束代表了不同的重構算法和重構性能。若采用范數,通常采用正交匹配追蹤OMP算法重構。盡管范數滿足壓縮感知模型最初的想法,即尋找具有最小稀疏度的優化問題的解,但由于其是一個NP-Hard問題,導致解的精度往往不高。因此有學者提出利用范數替代范數使其變為凸優化問題,并提出了一系列基于迭代的重構算法:迭代閾值收縮算法ISTA、快速迭代閾值收縮算法FISTA、近似信息傳遞算法AMP等。上述算法的提出雖然使問題得到進一步解決,但它們都是基于優化理論的解決算法,仍然存在著重構精度有限、迭代過程復雜、收斂速度慢等諸多問題。
近年來隨著深度學習技術的發展,開始有學者提出基于卷積神經網絡的壓縮感知重構方法Recon-Net,這種方法雖然解決了迭代過程復雜的問題,但是仍存在兩個問題:1)直接應用模型得到的重構圖像噪聲較大,必須經過去噪才能得到質量較好的重構圖像;2)模型在訓練時收斂速度較慢,即使在高性能計算機上,訓練模型也需要一天的時間。
發明內容
本發明的目的在于針對傳統基于優化的重建方法和當前基于深度學習的重建方法存在的問題,提出一種基于深度稀疏編碼的自然圖像壓縮感知重建方法,以簡化模型復雜度,降低模型的訓練時間,提高圖像的重構速度和重構效果。
本發明的技術方案是:通過利用自然圖像在變換域上的稀疏先驗信息對其進行壓縮感知編碼,再結合基于學習的近似信息傳遞算法LAMP和遞歸神經網絡RNN模型,實現將圖像編碼信息的恢復重建,其實現步驟包括如下:
(1)模型訓練步驟:
(1a)輸入多張圖片,并從這些圖片中取n個訓練圖像塊X;
(1b)對(1a)中的n個訓練圖像塊X進行壓縮感知觀測,得到n個觀測系數Y,并用這些訓練圖像塊與對應的觀測系數組成n個訓練樣本對:{(X=x1,x2,...,xn-1,xn),(Y=y1,y2,...,yn-1,yn)};
(1c)設置模型訓練次數K=100,每次從Y、X中隨機選取r個訓練樣本yr、xr,并采用梯度下降法進行訓練,每次訓練的截止條件flag為迭代50次模型誤差值不衰減;
(1d)設置稀疏編碼算法的參數,初始化迭代次數T=10,并令初始變換系觀測數據殘差vt=y,其中為第t次迭代計算的訓練圖像塊變換系數,vt為第t次迭代的觀測殘差;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安電子科技大學,未經西安電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710306725.7/2.html,轉載請聲明來源鉆瓜專利網。





