[發明專利]基于空間自注意力機制的目標檢測方法有效
| 申請號: | 202010002235.X | 申請日: | 2020-01-02 |
| 公開(公告)號: | CN111222562B | 公開(公告)日: | 2022-04-08 |
| 發明(設計)人: | 張伶俐;陳可佳;周曉萌 | 申請(專利權)人: | 南京郵電大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04;G06N3/08;G06F17/16 |
| 代理公司: | 南京蘇科專利代理有限責任公司 32102 | 代理人: | 姚姣陽 |
| 地址: | 210023 *** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 空間 注意力 機制 目標 檢測 方法 | ||
本發明提供了一種空間自注意力機制及目標檢測方法,對特征圖F進行自適應平均池化得到特征圖F′;對特征圖F′進行兩次降維映射,得到f(F′)與g(F′)并按行展開,得到矩陣M和矩陣N;將矩陣M和矩陣N進行相乘,得到矩陣Z;對矩陣Z通過行卷積得到特征圖Y;再使用sigmoid激活并進行拓展,得到特征圖Q;對特征圖Q進行反自適應平均池化,得到最終空間每個像素的權重,將所述權重與特征圖F進行點乘,以獲得最終特征圖R作為下一個卷積層的輸入。本發明基于空間自注意力機制,能夠更好地提高目標檢測方法的精度,本發明簡單高效,且計算量較低,可應用到任意卷積網絡的前向過程中,為特征圖提供全局信息指導,提高卷積網絡的表達能力。
技術領域
本發明涉及一種基于空間自注意力機制的目標檢測方法,屬于計算機視覺領域。
背景技術
目標檢測是計算機視覺任務中最基礎,同時也是最具有挑戰性的任務。它旨在對圖像中的目標進行定位與分類。近年來,隨著深度學習技術的迅猛發展,目標檢測的技術的效果得到了很大的提高。基于深度學習的目標檢測技術主要分為三個步驟:首先,采用卷積網絡對目標提取特征;隨著卷積網絡深度的加深,網絡表征能力越強,但同時小目標與位置信息損失越大。然后,采用不同大小比率的滑動窗口對整幅圖像進行遍歷;一方面,盡管滑窗能夠遍歷整幅圖像,但仍不能保證特殊形狀的存在不會影響最終檢測效果;另一方面,滑窗遍歷整幅圖像導致計算量增加以及正負樣本的不平衡,影響檢測效果。最后,對所提取的特征進行分類并使包圍框回歸,同時對預測出來的結果進行非極大值抑制操作,以得到最終結果。
近年來,通過注意力機制來增強網絡的表征能力的方法層出不窮。SENet提出了基于通道間的注意力機制,通過兩個全連接層計算通道間的重要程度,再對原特征圖進行加權求值。CBAM將基于通道間的注意力機制與基于空間中的注意力機制進行融合,使用最大池化與平均池化對特征圖進行壓縮,再使用1*1卷積得到每個通道的重要程度,最后對原特征圖進行加權求值。這些注意力機制只考慮了特征圖中的一階池化作用,沒有考慮全局信息對該位置影響。所以在確定該位置重要程度時,需要添加全局信息的指導,以使得目標檢測的精確度提高。專利CN201910738932.9公開了一種基于自注意力機制的多尺度空間自注意力機制及目標檢測方法,其中所涉及到的空間注意力模塊只是對特征圖進行降維壓縮,沒有考慮到其他像素點對該像素點的位置影響程度,即丟失了全局信息的指導。
有鑒于此,確有必要提出一種基于空間自注意力機制的目標檢測方法,以解決上述問題。
發明內容
本發明的目的在于提供一種基于空間自注意力機制的目標檢測方法,更好地提高網絡檢測的精度,提高卷積網絡的表達能力。
為實現上述目的,本發明提供了一種空間自注意力機制,主要包括以下步驟:
步驟1、對特征圖F∈RC×H×W進行自適應平均池化得到特征圖F';
步驟2、對特征圖F'分別進行兩次降維映射,得到f(F')與g(F'),將f(F')與g(F')按行展開,得到矩陣M和矩陣N;
步驟3、將矩陣M和矩陣N進行相乘,得到矩陣Z=MT×N;
步驟4、對矩陣Z通過行卷積得到特征圖Y;
步驟5、對特征圖Y使用sigmoid激活并進行拓展,得到特征圖Q;
步驟6、對特征圖Q進行反自適應平均池化,得到最終空間每個像素的權重,將所述權重與特征圖F進行點乘,以獲得最終特征圖R;
步驟7、將最終特征圖R作為下一個卷積層的輸入。
可選的,步驟1中,特征圖F'=AdaptiveAvgPool2d(F),此時F'的大小為C×H'×W'。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京郵電大學,未經南京郵電大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010002235.X/2.html,轉載請聲明來源鉆瓜專利網。





