[發明專利]基于自適應空間模式的深度膠囊網絡圖像分類方法及系統在審
| 申請號: | 202110032354.4 | 申請日: | 2021-01-11 |
| 公開(公告)號: | CN112766340A | 公開(公告)日: | 2021-05-07 |
| 發明(設計)人: | 王錦萍;李軍;譚曉軍;黃力;陳霞 | 申請(專利權)人: | 中山大學;惠州市德賽西威汽車電子股份有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/08 |
| 代理公司: | 深圳市創富知識產權代理有限公司 44367 | 代理人: | 高冰 |
| 地址: | 510275 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 自適應 空間 模式 深度 膠囊 網絡 圖像 分類 方法 系統 | ||
本發明公開了一種基于自適應空間模式的深度膠囊網絡圖像分類方法及系統,該方法包括:對訓練用圖像進行圖像預處理,并構建訓練集;基于訓練集進行適應空間單元深度膠囊網絡的訓練,得到訓練完成的深度膠囊網絡;獲取待測圖像并將待測圖像輸入訓練完成的深度膠囊網絡進行圖像分類,得到圖像分類結果;所述深度膠囊網絡包括ASPConvs模塊、ASPCaps模塊和全連接膠囊層。該系統包括:預處理模塊、訓練模塊和分類模塊。通過使用本發明,自適應學習復雜的物結構信息,提升紋理密集區域的圖像分類精度。本發明作為一種基于自適應空間模式的深度膠囊網絡圖像分類方法及系統,可廣泛應用于圖像分類領域。
技術領域
本發明涉及圖像分類領域,尤其涉及一種基于自適應空間模式的深度膠囊網絡圖像分類方法及系統。
背景技術
傳統的深度學習圖像分類算法包括:堆疊自編碼網絡、深度置信神經網絡,遞歸神經網絡,生成對抗性神經網絡以及卷積神經網絡等,其中傳統的基于神經網絡的圖像分類方法通過卷積、池化、全連接層等步驟進行圖像特征提取。然而,該類方法往往網絡模型訓練需要大量的數據樣本,且訓練過程復雜,復雜的場景特征下圖像關鍵興趣點特征提取困難。且對于傳統的神經網絡方法,其卷積核中采樣點的位置通常是固定不變的,其不能根據真實物體的實際空間形態分布自適應的調整學習區域。因此,當數據集結構復雜的情況下,現有的深度學習方法往往無法學習到清晰輪廓特征的圖像邊緣信息,因而面臨無法精準高效地識別圖像復雜紋理信息的問題。
發明內容
為了解決上述技術問題,本發明的目的是提供一種基于自適應空間模式的深度膠囊網絡圖像分類方法及系統,解決空間結構特征復雜的高光譜圖像分類數據集分類精度不準確的問題。
本發明所采用的第一技術方案是:基于自適應空間模式的深度膠囊網絡圖像分類方法,包括以下步驟:
對訓練用圖像進行圖像預處理,并構建訓練集;
基于訓練集進行適應空間單元深度膠囊網絡的訓練,得到訓練完成的深度膠囊網絡;
獲取待測圖像并將待測圖像輸入訓練完成的深度膠囊網絡進行圖像分類,得到圖像分類結果;
所述深度膠囊網絡包括ASPConvs模塊、ASPCaps模塊和全連接膠囊層。
進一步,所述對訓練用圖像進行圖像預處理,并構建訓練集這一步驟,其具體包括:
獲取訓練用的高光譜圖像X∈RH×W×D;
基于主成分分析算法將數據降到d維,得到圖像訓練塊Yk∈Rm×m×d;
結合圖像訓練塊和對應的標簽構建訓練集
進一步,所述基于訓練集進行適應空間單元深度膠囊網絡的訓練,得到訓練完成的深度膠囊網絡這一步驟,其具體包括:
將訓練集輸入到適應空間單元深度膠囊網絡;
基于ASPConvs模塊對訓練圖像塊進行卷積處理,提取得到次高級目標圖像特征;
基于ASPCaps模塊對次高級圖像特征進行膠囊分組和預測處理,重新提取得到高級語義特征。
基于全連接膠囊網絡層對高級語義特征進行概率分類,得到分類結果。
進一步,所述基于ASPConvs模塊對訓練圖像塊進行卷積處理,提取得到次高級目標圖像特征這一步驟,其具體包括:
給定訓練圖像塊Yk,引入空洞卷積規則并自適應學習尋找采樣位置;
基于采樣位置提取得到次高級目標圖像特征。
進一步,所述自適應學習尋找采樣位置的表達式如下:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中山大學;惠州市德賽西威汽車電子股份有限公司,未經中山大學;惠州市德賽西威汽車電子股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110032354.4/2.html,轉載請聲明來源鉆瓜專利網。





