[發明專利]一種基于WGAN模型的圖像通道融合方法在審
| 申請號: | 201810101708.4 | 申請日: | 2018-02-01 |
| 公開(公告)號: | CN108399422A | 公開(公告)日: | 2018-08-14 |
| 發明(設計)人: | 周智恒;李立軍 | 申請(專利權)人: | 華南理工大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 廣州市華學知識產權代理有限公司 44245 | 代理人: | 李斌 |
| 地址: | 510640 廣*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 融合 生成器 卷積 圖像通道 網絡模型 學習神經網絡 圖像 隨機噪聲 損失函數 訓練模型 原始生成 整個網絡 對抗 初始化 魯棒性 判別器 特征圖 構建 評判 圖片 | ||
本發明公開了一種基于WGAN模型的圖像通道融合方法,屬于深度學習神經網絡領域,包括以下步驟:S1、構造原始生成對抗網絡模型;S2、構造沃瑟斯坦距離,作為對抗網絡模型的評判指標;S3、初始化隨機噪聲,輸入生成器中;S4、在WGAN模型中利用通道融合對圖像進行卷積操作;S5、將通道融合操作得到的損失函數輸入生成器進行后續訓練。本方法構建的基于通道融合的WGAN模型,改變了判別器、生成器接收圖片后的卷積方式,在每次卷積之后都對圖像各個通道的特征圖進行融合,從而能夠提高整個網絡訓練模型的魯棒性。
技術領域
本發明涉及深度學習神經網絡,具體涉及一種基于WGAN模型的圖像通道融合方法。
背景技術
生成式對抗網絡(Generative Adversarial Network,簡稱GAN)是由Goodfellow在2014年提出的深度學習框架,它基于“博奕論”的思想,構造生成器(generator)和判別器(discriminator)兩種模型,前者通過輸入(0,1)的均勻噪聲或高斯隨機噪聲生成圖像,后者對輸入的圖像進行判別,確定是來自數據集的圖像還是由生成器產生的圖像。
在傳統的對抗網絡模型中,對于生成器生成圖像質量并沒有統一的評判標準,因此,需要本領域技術人員選取一種合理的參數作為生成對抗網絡的評判指標,可以使得整個模型的訓練能夠往正確的方向進行,同時,亟待提出一種特征融合方法,提高深度學習神經網絡的魯棒性。
發明內容
本發明的目的是為了解決現有技術中的上述缺陷,提供一種基于WGAN模型的圖像通道融合方法,該方法利用沃瑟斯坦距離作為生成對抗網絡的評判指標,從而使整個模型的訓練能夠往正確的方向進行,另外利用通道融合學習圖像特征的方法,在每一層卷積之后都對圖像各個通道的特征圖進行融合,提高了整個網絡的魯棒性。
本發明的目的可以通過采取如下技術方案達到:
一種基于WGAN模型的圖像通道融合方法,所述的圖像通道融合方法包括以下步驟:
S1、構造原始生成對抗網絡模型,通過生成器生成圖像并輸入至判別器進行網絡訓練;
S2、構造沃瑟斯坦距離,作為對抗網絡模型的評判指標;
S3、初始化隨機噪聲,輸入生成器中;
S4、在WGAN模型中利用通道融合對圖像進行卷積操作;
S5、將通道融合操作得到的損失函數輸入生成器進行后續訓練。
進一步地,所述的步驟S4過程如下:
S41、將圖像分解成多個通道;
S42、針對圖像的各個通道,利用不同的卷積核進行卷積;
S43、在每一層卷積完成之后,對所有通道的特征圖融合。
進一步地,所述的步驟S5過程如下:
S51、將步驟S4中卷積之后的特征圖,輸入判別器進行判別;
S52、將通道融合操作得到的損失函數輸入生成器進行后續訓練。
進一步地,所述的損失函數的表達式為:
其中,D(x)表示判別器對圖像的判別,pr表示數據集圖像的分布,pg表示生成圖像的分布,λ為超參數,為梯度。
本發明相對于現有技術具有如下的優點及效果:
1、在傳統的模型中,圖像各個通道的特征圖經過多層卷積之后才進行融合,本方法采用了通道融合的方法,在每一層卷積結束之后,都對圖像各個通道的特征圖進行融合,再進行后續訓練。在這種情況下,整個網絡的魯棒性得到了進一步增強。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華南理工大學,未經華南理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810101708.4/2.html,轉載請聲明來源鉆瓜專利網。





