[發明專利]一種基于輕量型卷積網絡的多角度聲吶圖像目標分類方法在審
| 申請號: | 202310002666.X | 申請日: | 2023-01-03 |
| 公開(公告)號: | CN116343016A | 公開(公告)日: | 2023-06-27 |
| 發明(設計)人: | 鞏文靜;田杰;劉紀元 | 申請(專利權)人: | 中國科學院聲學研究所 |
| 主分類號: | G06V20/05 | 分類號: | G06V20/05;G06V10/40;G06V10/764;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 北京方安思達知識產權代理有限公司 11472 | 代理人: | 武玥;楊青 |
| 地址: | 100190 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 輕量型 卷積 網絡 角度 聲吶 圖像 目標 分類 方法 | ||
本發明涉及水下目標識別領域,尤其涉及基于輕量型卷積網絡的多角度聲吶圖像目標分類方法,所述方法包括:(1)對聲吶圖像進行處理,獲得多角度聲吶圖像數據集;(2)獲取圖像訓練集與驗證集;(3)構建基于輕量型網絡的多角度聲吶圖像目標分類模型;(4)利用數據集對上述模型進行迭代訓練;(5)獲取目標分類結果。本發明利用多個角度的聲吶圖像進行目標分類,相較于單角度圖像而言能夠更加全面地描述目標散射特性,由此對目標進行屬性判別,擁有更高的準確度,同時輕量化的網絡模型也能夠減小資源消耗,為實際應用提供可能。
技術領域
本發明涉及水聲信號處理領域,尤其涉及一種基于輕量型卷積網絡的多角度聲吶圖像目標分類方法。
背景技術
近年來,聲吶成像技術日漸成熟,目前已經成為水下圖像獲取的重要途徑,在軍事以及民用領域都有廣泛的應用。聲吶設備可以直觀地提供水下目標的全局信息,對水下光源沒有依賴,實用性強。聲吶圖像是目標散射信息在二維圖像中的映射,可能存在混疊、畸變,這使聲吶圖像在視覺上更難解釋與理解。因此,從聲吶圖像中識別出目標的真實屬性,是一直以來的研究熱點。
隨著深度學習相關理論的發展,基于深度學習的目標識別技術得到了廣泛應用,很多學者設計了不同的卷積網絡來對聲吶圖像中的目標進行檢測和識別,并取得了較好的效果,但是大多數方法均基于單角度聲吶圖像。在聲吶成像過程中,對于同一觀測目標,不同角度下所得目標的聲吶圖像會有較大差別,而不同目標在某一角度下又具有較大的相似性。因此,基于單角度聲吶圖像的目標識別具有一定局限性。
同一目標的多角度聲吶圖像序列中蘊含著目標在多個角度的散射回波,更加精細地刻畫出目標的散射特性,將多個視角的目標聲圖融合成一幅圖像,能夠充分利用目標在不同視角下的共有信息,但是融合方式的選擇以及目標分類網絡的構建均會對目標分類效果產生影響。
總之,在水下目標多角度聲吶圖像分類任務中,目前急需一種既能夠充分利用目標信息又能靈活部署到現有設備的目標分類方法,以提高后續目標分類的準確率與效率。
發明內容
本發明的目的在于克服現有技術缺陷,提出了一種基于輕量型卷積網絡的多角度聲吶圖像目標分類方法。
為達到上述目的,本發明通過下述技術方案實現。
本發明提出了一種基于輕量型卷積網絡的多角度聲吶圖像目標分類方法,所述方法包括:
將目標的多個角度的單通道聲吶圖像預處理后進行信息融合,獲得目標的多角度聲吶圖像;
將目標的多角度聲吶圖像輸入預選建立并訓練好的基于輕量型卷積網絡的多角度聲吶圖像目標分類模型中,得到目標分類結果;
其中,所述多角度聲吶圖像目標分類模型通過對輕量型MobileNetV2網絡改進得到;所述對輕量型MobileNetV2網絡改進,包括:去掉輕量型MobileNetV2網絡中特征提取卷積層Conv2之后的網絡層,并修改特征提取卷積層Conv2的通道數;添加Flatten層實現降維操作,并且添加Dropout層進行隨機丟棄,最后添加一個全連接層對結果進行分類。
作為上述技術方案的一種改進,所述多角度聲吶圖像目標分類模型具體包括:特征提取模塊和分類模塊;其中,
所述特征提取模塊包括輸入層Input、特征提取卷積層Conv1、瓶頸層Bottleneck1-Bottleneck7、特征提取卷積層Conv2、Flatten層和Dropout層;其中,特征提取卷積層Conv2的通道數為128,Dropout層的丟棄率為0.5;
所述分類模塊包括一個全連接層。
作為上述技術方案的一種改進,所述多角度聲吶圖像目標分類模型的處理過程具體包括:
輸入層Input將目標的多角度聲吶圖像送入特征提取卷積層Conv1;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國科學院聲學研究所,未經中國科學院聲學研究所許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202310002666.X/2.html,轉載請聲明來源鉆瓜專利網。





