[發明專利]基于壓縮感知的高動態范圍圖像去偽影融合方法有效
| 申請號: | 201710766426.1 | 申請日: | 2017-08-30 |
| 公開(公告)號: | CN107730479B | 公開(公告)日: | 2021-04-20 |
| 發明(設計)人: | 譚洪舟;吳炆芳;朱雄泳;陳榮軍;謝舜道;劉付康 | 申請(專利權)人: | 中山大學;廣東順德中山大學卡內基梅隆大學國際聯合研究院;中山大學花都產業科技研究院 |
| 主分類號: | G06T5/50 | 分類號: | G06T5/50;G06T7/30 |
| 代理公司: | 廣州粵高專利商標代理有限公司 44102 | 代理人: | 林麗明 |
| 地址: | 510275 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 壓縮 感知 動態 范圍 圖像 去偽影 融合 方法 | ||
本發明公開了一種基于壓縮感知的高動態范圍圖像去偽影融合方法。首先,對輸入的多曝光圖像序列進行壓縮采樣;接著,使用重構方法進行重構得到壓縮感知后的多曝光圖像序列;然后歸一化經過壓縮感知的圖像集,對圖像集使用基于PatchMatch和秩最小化算法進行多曝光圖像去偽影融合得到目標的高動態(high dynamic range,HDR)圖像。本發明利用K?SVD字典學習、壓縮感知和去偽影融合的最新研究成果,能夠有效降低采樣率、存儲空間和計算復雜度,得到去除偽影和模糊的HDR圖像。
技術領域
本發明涉及一種將低動態范圍圖像合成高動態范圍圖像的方法,具體來說,它涉及一種利用K-SVD字典學習、壓縮感知和去偽影融合算法完成對多曝光的低動態范圍圖像序列的壓縮感知和融合,最后生成沒有偽影的高動態范圍圖像的方法。
背景技術
高動態范圍成像已經開始成為一種商業產品,比如HDR相機、HDR電視機等。在相同真實的場景中,大多數成像傳感器的有限動態范圍,往往無法捕捉到場景完整動態范圍的亮度,然而使用一種相對簡單廉價的方式可以解決這個限制,就是捕獲若干對同一場景不同曝光時間的圖像然后把它們融合成一張記錄場景亮度的高動態范圍圖像,因此有效的擴展圖像動態范圍。然而傳統的圖像獲取方法需先采集含冗余的大量數據,再進行壓縮處理以提取有用信息,效率低并且需要較大存儲空間。而壓縮感知可避免對冗余數據的采樣,在遠低于奈奎斯特采樣率的條件下,隨機采樣獲取離散信號,并通過重構方法高概率的重建原信號。此外由于相機的抖動或者場景中物體的移動,往往會導致融合后的圖像出現偽影或者模糊的現象。
發明內容
針對以上的不足,本發明提供了一種基于壓縮感知的高動態范圍圖像去偽影融合方法。本發明有效降低圖像獲取端的采樣率和計算復雜度,節約存儲空間,并解決現有融合后的圖像出現偽影或者模糊的現象。
為了解決上述技術問題,本發明的技術方案為:
本發明基于壓縮感知的高動態范圍圖像去偽影融合方法,包括有如下步驟:
1)對輸入多曝光圖像序列進行分塊壓縮采樣;
2)對壓縮采樣后的圖像塊進行LDR圖像序列的重構;
3)對經過壓縮感知后的多曝光圖像序列進行高動態范圍圖像的去偽影融合。
所述步驟1)的具體實現過程為:
11)以當前輸入的LDR圖像為參考,進行K-SVD字典學習,得到用于稀疏表示的超完備字典ψ;
12)對分塊后的圖像信號矩陣F進行稀疏表示,得到F=ψθ,設計觀測矩陣Φ,則壓縮采樣的過程重寫為:
y=ΦF=Φψθ=Θθ\*MERGEFORMAT (1)。
所述步驟11)還包括如下內容:
111)判斷當前的LDR圖像是否為灰度圖像,若不是,則轉換為灰度圖像,并進一步轉換為double類型的圖像;
112)選擇所需的圖像分塊大小,將111)中獲取的灰度圖像進行分塊,并重排圖像塊為矩陣列,形成字典學習的數據集矩陣,也即待稀疏表示的信號矩陣Y,進一步將矩陣Y表示為其中N為矩陣Y的列數;
113)K-SVD算法參數初始化,包括:
numAtom:需要訓練的字典元素個數;
numIteration:迭代次數
errorFlag:等于0則表示每個信號的稀疏系數個數固定,需要配置參數L;否則表示信號的稀疏系數不固定,需要配置參數errorGoal;
errorGoal:最大允許表示誤差
preserveDCAtom:等于1則表示字典的第一個原子為常量;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中山大學;廣東順德中山大學卡內基梅隆大學國際聯合研究院;中山大學花都產業科技研究院,未經中山大學;廣東順德中山大學卡內基梅隆大學國際聯合研究院;中山大學花都產業科技研究院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710766426.1/2.html,轉載請聲明來源鉆瓜專利網。





