[發明專利]基于卷積神經網絡的物品檢測方法在審
| 申請號: | 202210277747.6 | 申請日: | 2022-03-21 |
| 公開(公告)號: | CN114612770A | 公開(公告)日: | 2022-06-10 |
| 發明(設計)人: | 袁慶霓;白歡;王晨;楊觀賜;杜飛龍;藍偉文 | 申請(專利權)人: | 貴州大學 |
| 主分類號: | G06V20/00 | 分類號: | G06V20/00;G06V10/82;G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 貴陽東圣專利商標事務有限公司 52002 | 代理人: | 袁慶云 |
| 地址: | 550025 貴州省*** | 國省代碼: | 貴州;52 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 卷積 神經網絡 物品 檢測 方法 | ||
本發明公開了一種基于卷積神經網絡的物品檢測方法,包括:步驟一:對樣本圖像進行處理;步驟二:構建目標檢測網絡模型:該目標檢測網絡模型以RFBNet網絡為基礎,首先采用雙線性插值方法對RFBNet網絡的卷積層Conv7、卷積層Conv9_2的特征圖擴大到與卷積層Conv4_3特征圖相同的尺寸,然后利用concat通道拼接方式進行特征融合,最后通過加入基于通道注意力機制的擠壓激勵SE模塊;步驟三:訓練目標檢測網絡模型;步驟四:使用目標檢測網絡模型進行檢測,得到檢測結果。本發明具有能夠滿足實時性的前提下,提高小目標物品檢測精度的特點。
技術領域
本發明涉及機器視覺領域,具體涉及一種基于卷積神經網絡的物品檢測方法。
背景技術
隨著圖像識別、深度學習和大數據等技術的飛速發展,基于深度學習的物品檢測成為機器視覺領域研究熱點。近年來,國內外學者作了大量的研究,Liu等提出了一種基于Faster R-CNN的無人機檢測方法,該模型在檢測精度方面取得了不錯的效果,但是受限于Faster R-CNN網絡,該模型檢測的實時性不好。Liu等提出RFB(Receptive Field Block)模塊,提高了檢測精度,但是該方法直接從網絡不同層提取不同尺度的特征進行獨立預測,忽視了深層特征與淺層特征之間的關聯性,因此小目標檢測效果不好。Lin等提出了一種金字塔似的逐級特征融合方法,該方法充分利用了深層網絡的語義信息和淺層網絡的細節信息,在目標檢測中取得了較好的效果,但是由于這種逐級特征融合方式大大的增加了網絡的計算量,網絡運行速度受到了嚴重的影響,導致實時應用相當困難。姚群力等提出一種端到端的多尺度特征融合目標檢測方法,通過反卷積將深層特征與淺層特征進行融合,特征圖信息得到了豐富,改善了小目標的檢測效果,但是降低了檢測速度。在倉儲貨柜環境下的目標物品容易受到遮擋、光照、背景相似等因素的影響,因此特征提取比較困難,檢測效果較差,究其主要原因是隨著CNN不斷加深,特征圖感受野越大,提取出的特征信息越抽象,但同時也丟失大量的細節信息,導致目標物品檢測效果差。
發明內容
本發明的目的在于克服上述缺點而提出了一種能夠滿足實時性的前提下,提高小目標物品檢測精度的基于卷積神經網絡的物品檢測方法。
本發明的一種基于卷積神經網絡的物品檢測方法,其中:包括以下步驟:
步驟一:對樣本圖像進行圖像預處理,并將樣本圖像分為訓練圖像集和測試圖像集;
步驟二:構建目標檢測網絡模型:該目標檢測網絡模型以RFBNet網絡為基礎,首先采用雙線性插值方法對RFBNet網絡的卷積層Conv7、卷積層Conv9_2的特征圖擴大到與卷積層Conv4_3特征圖相同的尺寸,然后利用concat通道拼接方式進行特征融合,最后通過加入基于通道注意力機制的擠壓激勵SE模塊,使RFBNet網絡自動的重新分配特征通道權重來改善模型的性能,即通過提升重要層的網絡權重參數,降低次要層的網絡權重參數,提升目標的檢測效率;
所述雙線性插值方法:
步驟1:將所述卷積層conv7層特征圖擴大兩倍得到尺寸為38×38的特征圖,通道數為256個;將所述卷積層conv9_2層擴大8倍得到尺寸為40×40的特征圖,再通過卷積核大小為3×3、通道數為256的卷積運算得到尺寸為38×38的特征圖;將卷積層conv4_3層的特征圖通道數由512個降為256個,不改變特征圖的尺寸;
步驟2:將步驟1中卷積層conv7、conv9_2、conv4_3得到的特征圖通過concat疊加通道數的方式進行拼接,拼接后特征再經過通道數為512、卷積核大小為1×1的卷積運算及激活函數操作后得到新的融合特征;從而將語義信息豐富的深層特征融入到細節信息豐富的淺層特征中以提升網絡的特征提取能力;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于貴州大學,未經貴州大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210277747.6/2.html,轉載請聲明來源鉆瓜專利網。





