[發明專利]基于雙路徑特征融合網絡的魯棒聲吶目標檢測方法有效
| 申請號: | 201910329213.1 | 申請日: | 2019-04-23 |
| 公開(公告)號: | CN110163108B | 公開(公告)日: | 2020-12-08 |
| 發明(設計)人: | 孔萬增;賈明洋;洪吉晨;張建海;周文暉 | 申請(專利權)人: | 杭州電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/32;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 杭州君度專利代理事務所(特殊普通合伙) 33240 | 代理人: | 黃前澤 |
| 地址: | 310018 浙*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 路徑 特征 融合 網絡 聲吶 目標 檢測 方法 | ||
本發明公開了基于雙路徑特征融合網絡的魯棒聲吶目標檢測方法。傳統圖像處理方法使用圖像分割的方法將背景和目標區分;本發明如下:一、搭建雙路徑特征融合網絡。二、對步驟1所得的雙路徑特征融合網絡進行訓練。三、聲吶圖像的生成和特征提取。四、結合默認框進行聲吶圖像目標框的分類和檢測。本發明將深度學習技術融入到目標檢測中,將聲吶數據生成的聲吶圖像輸入網絡模型中,在模型中一次性完成特征提取、目標檢測、目標分類,從而大大提高檢測速度。本發明可以提取到更多的深層次特征,從根本上優化了目標分類,回歸。本發明采用多尺度密集相連,以融合多層次特征,提升中小目標檢測效果。
技術領域
本發明屬于人工智能與水聲電子信息的技術領域,具體涉及一種基于雙路徑特征融合網絡的魯棒聲吶目標檢測方法。
背景技術
隨著計算機科學技術的不斷迭代和發展,近年來水下探測技術得到了極大的推動,并且在軍事和民事等領域具有廣泛的應用,如軍事對抗、危險目標排查、目標跟蹤等;在其他領域還有水下救援,海底資源勘探測,瀕危生物的跟蹤與保護,海床建模等具有重大作用。
水下目標檢測與識別是現代聲吶系統和水聲對抗的重要組成部分,是每個國家海上安防的研究重點,一直受到社會各界,技術人員和軍事部門的廣泛關注,也是我國海軍目前急需解決的關鍵問題之一。水下目標檢測與識別是基于聲吶技術,信息科學,計算機科學,人工智能等多個領域的一項不斷發展的重要技術。海底形勢復雜,干擾較多,為了提高海底不同大小,形狀目標檢測的魯棒性、精確性和實時性,以謀求軍事和民用領域的技術優勢,近年來,水下目標檢測方法主要如下:
1)基于模板匹配的目標檢測
2)基于傳統圖像處理方法的目標檢測
3)基于經驗論斷的目標檢測
4)基于淺層神經網絡的目標檢測
由于水下環境復雜,聲吶設備的非線性成像,采集到的水下三維成像聲吶
對比度和信噪比較低,易受地層噪聲干擾,當前的水下目標檢測識別方法在這種情況下仍然存在著許多瓶頸,如聲吶圖像目標特征提取不徹底或提取速度慢、水下小目標因對比度和信噪比低被誤檢或漏檢,無法取得高精度、強魯棒性、系統實時性的同時兼顧,因此聲吶目標檢測識別方法也需要不斷發展和創新
2006年,Geoffrey Hinton提出了深度學習方法。之后深度學習在諸多領域取得了巨大成功,受到廣泛關注。2012年,Hinton的研究小組采用深度學習贏得了ImageNet圖像分類的比賽,把錯誤率大幅降到15.315%,遙遙領先于傳統圖像處理方法,完成了深度學習在計算機領域最具影響力的突破。同時,深度學習在目標識別領域的應用不斷取得發展,在ILSVRC2014比賽中,獲勝者GooLeNet將top5錯誤率降到6.656%。時至2017年7月,深度學習算法SE-ResNeXt-152的數據集的Top-5錯誤率僅為2.251%,已經遠遠超越了人工標注的錯誤率(5%)。不光在圖像分類領域,深度學習在人臉識別、物體檢測、視頻分析等多個領域均取得令人驚嘆的效果。現如今,Google、微軟、百度等知名的擁有大數據的高科技公司爭相投入資源,占領深度學習的技術制高點,應用于各種領域取得了許多優秀的成果。以上種種證明了深度學習技術有著巨大的潛力和優越性。通過對前沿深度學習方法的調研分析,為了解決近年來水下目標檢測識別的瓶頸問題,本發明提出基于雙路徑特征融合網絡的三維成像聲吶圖像目標檢測方法。
發明內容
本發明的目的在于提供一種基于雙路徑特征融合網絡的魯棒聲吶目標檢測方法。
本發明的具體步驟如下:
步驟1、搭建雙路徑特征融合網絡。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州電子科技大學,未經杭州電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910329213.1/2.html,轉載請聲明來源鉆瓜專利網。





