[發明專利]一種基于對抗域自適應網絡的圖像分類方法有效
| 申請號: | 202110607513.9 | 申請日: | 2021-06-01 |
| 公開(公告)號: | CN113378904B | 公開(公告)日: | 2022-06-14 |
| 發明(設計)人: | 賈龍飛;李晶晶;杜哲凱 | 申請(專利權)人: | 電子科技大學 |
| 主分類號: | G06V10/764 | 分類號: | G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 四川鼎韜律師事務所 51332 | 代理人: | 溫利平 |
| 地址: | 611731 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 對抗 自適應 網絡 圖像 分類 方法 | ||
本發明公開了一種基于對抗域自適應網絡的圖像分類方法,重新定義了對抗損失函數Ladv克服源域和目標域泛化問題,但重新定義抗損失函數是有代價的,僅通過優化新的ADAN目標函數即抗損失函數不能保證源域和目標域分布是接近的,因此,本發明采用最小化額外的發散度即度量損失函數Lmetric來對齊源域和目標域。這樣采用對抗性學習和度量學習,一方面,挑戰了以往ADAN中的泛化問題,另一方面,保證了在訓練過程中使域發散最小化。實驗表明,本發明可以很好地適用于無監督的領域自適應任務,提高目標域圖像的分類性能(準確率)。
技術領域
本發明屬于圖像分類技術領域,更為具體地講,涉及一種基于對抗域自適應網絡的圖像分類方法。
背景技術
大多數機器學習模型背后的一個共同假設是:源域和目標域具有相同的數據分布。然而,在現實應用中并不能保證這一共同假設,這可能會導致對目標域數據分類的性能急劇下降。因此,域自適應被提出,通過降低域差異來解決這一問題。最新的域自適應方法是基于對抗性學習的,這些方法通常被稱為對抗域自適應網絡(Adversarial DomainAdaptation Networks,簡稱ADAN)。
圖1是現有基于對抗域自適應網絡的圖像分類方法的原理示意圖。
ADAN類似于生成對抗網絡(GANS),它以對抗方式訓練一個特征表示網絡F(類似于生成對抗網絡中的生成器)和一個域判別器D。具體來講,在基于對抗域自適應網絡的圖像分類方法中,源域以及目標域的圖像分別輸入到特征表示網絡F進行特征提取,得到圖像特征,然后分別送入到域判別器D,一旦域判別器D不能區分圖像特征是來自源域還是來自目標域,則認為學習到的圖像特征是域不變的。這樣通過源域圖像對特征表示網絡F、分類器C進行訓練,訓練好的特征表示網絡F、分類器C可以適用于目標域圖像的分類。
在域自適應中,源域和目標域具有不同的數據分布,域自適應的目標是學習到一種新的特征表示,使源域和目標域可以很好地對齊。ADAN利用了對抗性學習的思想,它假設只要域判別器被混淆,這兩個域就是對齊的。然而,最近的進展表明,這樣的假設可能并不可靠。然而,ADAN繼承了GANS的缺點,即使訓練成功,學習到的分布也可能與預期的分布相去甚遠,這在GANS中被稱為泛化問題。因此,即使域判別器被成功混淆,也不能保證學習的表示是域不變的,也就是說,訓練好的特征表示網絡F、分類器C不能很好地對目標域圖像進行良好的分類,分類性能有待提高。
發明內容
本發明的目的在于克服現有技術的不足,提供一種基于對抗域自適應網絡的圖像分類方法,克服源域和目標域泛化,將源域和目標域對齊,提高目標域圖像的分類性能(準確率)。
為實現上述發明目的,本發明基于對抗域自適應網絡的圖像分類方法,其特征在于,包括以下步驟:
(1)、構建用于圖像分類的對抗域自適應網絡
針對源域、目標域中的圖像,構建特征表示網絡F、域判別器D以及分類器C;
其中,特征表示網絡F用于對源域中的圖像xs進行特征提取,得到源域圖像特征F(xs),對目標域中的圖像xt進行特征提取,得到目標域圖像特征F(xt),域判別器D用于對源域圖像特征F(xs)以及目標域圖像特征F(xt)進行判別,得到屬于源域的概率D(F(xs))以及D(F(xt)),分類器C用于對源域圖像特征F(xs)進行分類,得到圖像分類概率pi(softmax(F(xs)),i=1,2,…I,對目標域圖像特征F(xt) 進行分類,得到圖像分類概率pi(softmax(F(xt)),i=1,2,…I;
(2)、訓練對抗域自適應網絡
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學,未經電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110607513.9/2.html,轉載請聲明來源鉆瓜專利網。





