[發(fā)明專(zhuān)利]基于注意力的CNN類(lèi)別激活圖生成方法有效
| 申請(qǐng)?zhí)枺?/td> | 201911241048.0 | 申請(qǐng)日: | 2019-12-06 |
| 公開(kāi)(公告)號(hào): | CN111046939B | 公開(kāi)(公告)日: | 2023-08-04 |
| 發(fā)明(設(shè)計(jì))人: | 張文林;司念文;屈丹;羅向陽(yáng);閆紅剛;陳琦;張連海;牛銅;楊緒魁;李真;李喜坤 | 申請(qǐng)(專(zhuān)利權(quán))人: | 中國(guó)人民解放軍戰(zhàn)略支援部隊(duì)信息工程大學(xué);鄭州信大先進(jìn)技術(shù)研究院 |
| 主分類(lèi)號(hào): | G06V10/764 | 分類(lèi)號(hào): | G06V10/764;G06V10/82;G06N3/0464;G06N3/084 |
| 代理公司: | 鄭州大通專(zhuān)利商標(biāo)代理有限公司 41111 | 代理人: | 張立強(qiáng) |
| 地址: | 450000 河*** | 國(guó)省代碼: | 河南;41 |
| 權(quán)利要求書(shū): | 查看更多 | 說(shuō)明書(shū): | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 注意力 cnn 類(lèi)別 激活 生成 方法 | ||
本發(fā)明屬于深度學(xué)習(xí)與計(jì)算機(jī)可視化技術(shù)領(lǐng)域,公開(kāi)一種基于注意力的CNN類(lèi)別激活圖生成方法,包括:步驟1、計(jì)算特征圖M=(Msubgt;0/subgt;,Msubgt;1/subgt;,...,Msubgt;K?1/subgt;)每個(gè)像素點(diǎn)的梯度值作為神經(jīng)元類(lèi)別相關(guān)的空間注意力權(quán)重;步驟2、獲取各類(lèi)別神經(jīng)元對(duì)應(yīng)的連接權(quán)重作為通道注意力權(quán)重;步驟3、根據(jù)空間注意力權(quán)重及通道注意力權(quán)重生成CNN類(lèi)別激活圖。本發(fā)明將類(lèi)別激活權(quán)重作用注意力權(quán)重,同時(shí)利用特征圖的通道?空間位置重要性,與CAM、Grad?CAM方法相比,生成的類(lèi)別激活圖的可視化效果更好,并且該方法不受網(wǎng)絡(luò)結(jié)構(gòu)的限制,使用更加靈活。
技術(shù)領(lǐng)域
本發(fā)明屬于深度學(xué)習(xí)與計(jì)算機(jī)可視化技術(shù)領(lǐng)域,尤其涉及一種基于注意力的?CNN類(lèi)別激活圖生成方法。
背景技術(shù)
卷積神經(jīng)網(wǎng)絡(luò)(Convolutional?Neural?Network,CNN)在許多領(lǐng)域取得了巨大?成功,但由于其端到端的“黑盒”特性,掩蓋了中間層知識(shí)存儲(chǔ)與處理機(jī)制,使?人們無(wú)法窺探其內(nèi)部特征及外部決策的依據(jù),在一定程度上影響了其應(yīng)用價(jià)值。?可視化即為一種常見(jiàn)的用于解釋CNN決策原因、展示其內(nèi)部學(xué)習(xí)到的特征的方?式,目前有一些研究將其應(yīng)用到CNN的特征理解與決策原因解釋中,例如CAM?方法(class?activation?map),Grad-CAM方法(gradient-based?CAM)(R.R.Selvaraju,M.Cogswell,A.Das,R.Vedantam,D.Parikh,andD.Batra.Grad-cam:Visual?explanations?from?deep?networks?via?gradient-basedlocalization.In?arXiv:1610.02391v3,2017.),反卷積方法(deconvolution),但有些方法受到網(wǎng)絡(luò)?結(jié)構(gòu)的限制,只能對(duì)特定結(jié)構(gòu)的網(wǎng)絡(luò)進(jìn)行可視化,有些只能可視化內(nèi)部特征或?qū)?原圖進(jìn)行重建,無(wú)法將內(nèi)部特征和CNN外部決策依據(jù)關(guān)聯(lián)起來(lái),實(shí)現(xiàn)對(duì)CNN?分類(lèi)依據(jù)的有效解釋。因此,需要在現(xiàn)有方法基礎(chǔ)上,提出一種更好的可視化方?法,在可視化CNN內(nèi)部所學(xué)特征的同時(shí),對(duì)CNN決策依據(jù)進(jìn)行有效解釋?zhuān)?內(nèi)部所學(xué)特征與外部決策結(jié)果對(duì)應(yīng)起來(lái),進(jìn)一步增強(qiáng)對(duì)CNN決策機(jī)制的理解。
發(fā)明內(nèi)容
本發(fā)明針對(duì)雖然基于深度卷積網(wǎng)絡(luò)的圖像分類(lèi)模型在準(zhǔn)確率上越來(lái)越高,但?由于深度網(wǎng)絡(luò)“端到端”屬性的限制,導(dǎo)致該分類(lèi)過(guò)程如同一個(gè)“黑盒”,無(wú)法?對(duì)其分類(lèi)結(jié)果進(jìn)行解釋?zhuān)矡o(wú)法定位圖像哪些區(qū)域的特征對(duì)分類(lèi)結(jié)果貢獻(xiàn)最大的?問(wèn)題,提出一種基于注意力的CNN類(lèi)別激活圖生成方法。
為了實(shí)現(xiàn)上述目的,本發(fā)明采用以下技術(shù)方案:
一種基于注意力的CNN類(lèi)別激活圖生成方法,包括:
步驟1:計(jì)算特征圖M=(M0,M1,...,MK-1)每個(gè)像素點(diǎn)的梯度值作為神經(jīng)元類(lèi)?別相關(guān)的空間注意力權(quán)重;
步驟2:獲取各類(lèi)別神經(jīng)元對(duì)應(yīng)的連接權(quán)重作為通道注意力權(quán)重;
步驟3:根據(jù)空間注意力權(quán)重及通道注意力權(quán)重生成CNN類(lèi)別激活圖。
進(jìn)一步地,在所述步驟1之前還包括:
在含有GAP層或不含有GAP層的CNN中,對(duì)輸入特征圖?M=(M0,M1,...,MK-1)進(jìn)行特征提取與分類(lèi)層神經(jīng)元分類(lèi);
計(jì)算第一類(lèi)別激活權(quán)重及第二類(lèi)別激活權(quán)重的關(guān)系,將第一類(lèi)別激活權(quán)重作?為通道注意力權(quán)重,將第二類(lèi)別激活權(quán)重作為空間注意力權(quán)重;所述第一類(lèi)別激?活權(quán)重為各類(lèi)別神經(jīng)元的連接權(quán)重,所述第二類(lèi)別激活權(quán)重為關(guān)于神經(jīng)元類(lèi)別c?的梯度值;第一類(lèi)別激活權(quán)重及第二類(lèi)別激活權(quán)重的關(guān)系如下:
該專(zhuān)利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專(zhuān)利權(quán)人授權(quán)。該專(zhuān)利全部權(quán)利屬于中國(guó)人民解放軍戰(zhàn)略支援部隊(duì)信息工程大學(xué);鄭州信大先進(jìn)技術(shù)研究院,未經(jīng)中國(guó)人民解放軍戰(zhàn)略支援部隊(duì)信息工程大學(xué);鄭州信大先進(jìn)技術(shù)研究院許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買(mǎi)此專(zhuān)利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201911241048.0/2.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專(zhuān)利網(wǎng)。
- 基于粒子濾波視覺(jué)注意力模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法
- 一種評(píng)測(cè)注意力狀態(tài)的方法及裝置
- 注意力測(cè)評(píng)方法、系統(tǒng)及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)
- 兒童注意力評(píng)估系統(tǒng)及其方法
- 一種注意力檢測(cè)方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 一種注意力識(shí)別方法和裝置
- 一種可靠的用戶(hù)注意力監(jiān)測(cè)估計(jì)表示模型
- 注意力特征圖獲取方法及裝置、目標(biāo)檢測(cè)的方法及裝置
- 基于通道增強(qiáng)的雙注意力生成對(duì)抗網(wǎng)絡(luò)及圖像生成方法
- 一種文本情感分析模型的優(yōu)化方法及裝置
- 圖像語(yǔ)義標(biāo)注的設(shè)備和方法及其模型的生成方法和系統(tǒng)
- 使用卷積神經(jīng)網(wǎng)絡(luò)的數(shù)字圖像處理
- 為數(shù)據(jù)庫(kù)確定卷積神經(jīng)網(wǎng)絡(luò)CNN模型的裝置和方法
- 確定卷積神經(jīng)網(wǎng)絡(luò)CNN模型的裝置和方法
- 采用嵌入式系統(tǒng)中的小規(guī)模卷積神經(jīng)網(wǎng)絡(luò)模塊的人臉檢測(cè)
- 針對(duì)深度通道和卷積神經(jīng)網(wǎng)絡(luò)圖像和格式使用相機(jī)設(shè)備的方法和系統(tǒng)
- 處理卷積神經(jīng)網(wǎng)絡(luò)的方法
- CNN加速器和電子設(shè)備
- 一種基于混合神經(jīng)網(wǎng)絡(luò)的腦電時(shí)空特征學(xué)習(xí)與情感分類(lèi)方法
- 一種基于FPGA的深度學(xué)習(xí)加速方法
- 類(lèi)別生成程序、類(lèi)別生成裝置以及類(lèi)別生成方法
- 顧客類(lèi)別分析裝置、顧客類(lèi)別分析系統(tǒng)以及顧客類(lèi)別分析方法
- 顧客類(lèi)別分析裝置、顧客類(lèi)別分析系統(tǒng)以及顧客類(lèi)別分析方法
- 語(yǔ)義類(lèi)別分類(lèi)
- 類(lèi)別管理
- 圖像解析裝置及圖像解析方法
- 類(lèi)別的編碼方法及裝置
- 電子書(shū)頁(yè)面展示方法、計(jì)算設(shè)備及計(jì)算機(jī)存儲(chǔ)介質(zhì)
- 交易控制方法及裝置
- 一種圖像搜索方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)





