[發(fā)明專(zhuān)利]一種基于通道注意力的行人再識(shí)別對(duì)抗攻擊方法在審
| 申請(qǐng)?zhí)枺?/td> | 202211353732.X | 申請(qǐng)日: | 2022-11-01 |
| 公開(kāi)(公告)號(hào): | CN115841681A | 公開(kāi)(公告)日: | 2023-03-24 |
| 發(fā)明(設(shè)計(jì))人: | 張琳鈺;王進(jìn) | 申請(qǐng)(專(zhuān)利權(quán))人: | 南通大學(xué) |
| 主分類(lèi)號(hào): | G06V40/10 | 分類(lèi)號(hào): | G06V40/10;G06N3/0464;G06N3/08;G06V10/74;G06V10/764;G06V10/774 |
| 代理公司: | 北京科家知識(shí)產(chǎn)權(quán)代理事務(wù)所(普通合伙) 11427 | 代理人: | 曹振中 |
| 地址: | 226001 *** | 國(guó)省代碼: | 江蘇;32 |
| 權(quán)利要求書(shū): | 查看更多 | 說(shuō)明書(shū): | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 通道 注意力 行人 識(shí)別 對(duì)抗 攻擊 方法 | ||
1.一種基于通道注意力的行人再識(shí)別對(duì)抗攻擊方法,其特征在于,包括以下步驟:
基于掩碼算法mask和ECA通道注意力,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò);
基于行人圖像訓(xùn)練集,獲取所述卷積神經(jīng)網(wǎng)絡(luò)的輸入圖像;
基于所述輸入圖像和所述卷積神經(jīng)網(wǎng)絡(luò),獲取所述輸入圖像中的深度特征;
基于損失函數(shù),獲取所述深度特征的損失值并優(yōu)化所述卷積神經(jīng)網(wǎng)絡(luò),得到深度神經(jīng)網(wǎng)絡(luò);
基于所述深度神經(jīng)網(wǎng)絡(luò)和待查詢圖像,獲取所述待查詢圖像的最終特征;
基于所述最終特征與行人圖像的特征向量之間的相似度,獲得所述待查詢圖像的匹配結(jié)果。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述基于掩碼算法mask和ECA通道注意力,構(gòu)建卷積神經(jīng)網(wǎng)絡(luò)的方法,包括以下步驟:
基于所述行人圖像訓(xùn)練集和初始卷積神經(jīng)網(wǎng)絡(luò),獲取包含行人圖像的初級(jí)映射特征的ImageNet數(shù)據(jù)集;
基于所述ImageNet數(shù)據(jù)集,對(duì)ResNet50模型進(jìn)行預(yù)訓(xùn)練;
基于已經(jīng)進(jìn)行預(yù)訓(xùn)練的所述ResNet50模型,將用于打破原有注意力權(quán)重的掩碼算法mask添加到所述Resnet50模型的中間層的特征圖中,獲取所述卷積神經(jīng)網(wǎng)絡(luò)。
3.根據(jù)權(quán)利要求2所述的方法,其特征在于,所述基于所述輸入圖像和所述卷積神經(jīng)網(wǎng)絡(luò),獲取所述輸入圖像中的深度特征的方法,包括以下步驟:
基于所述卷積神經(jīng)網(wǎng)絡(luò)和所述輸入圖像,獲取所述輸入圖像的對(duì)抗性權(quán)重圖;
基于所述對(duì)抗性權(quán)重圖與預(yù)設(shè)對(duì)抗性閾值的差值,獲取所述輸入圖像中的深度特征。
4.根據(jù)權(quán)利要求3所述的方法,其特征在于,所述基于所述對(duì)抗性權(quán)重圖與預(yù)設(shè)對(duì)抗性閾值的差值,獲取所述輸入圖像中的深度特征的方法,包括以下步驟:
響應(yīng)于所述對(duì)抗性權(quán)重圖與預(yù)設(shè)對(duì)抗性閾值之間的第一差值大于等于零,則降低所述對(duì)抗性權(quán)重圖中的對(duì)抗性權(quán)重,獲取所述深度特征;
響應(yīng)于所述對(duì)抗性權(quán)重圖與預(yù)設(shè)對(duì)抗性閾值之間的第一差值小于零,則提高所述對(duì)抗性權(quán)重圖中的對(duì)抗性權(quán)重,獲取所述深度特征。
5.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述損失函數(shù)為基于對(duì)抗三元組損失函數(shù)和對(duì)抗身份損失模型的組合函數(shù)。
6.根據(jù)權(quán)利要求5所述的方法,其特征在于,所述對(duì)抗三元組損失函數(shù)用于通過(guò)公式(1)攻擊預(yù)測(cè)排序,所述公式(1)為:
其中,Ck是第K個(gè)行人ID中抽取的樣本數(shù)量,是一個(gè)小批量中第K個(gè)行人ID中的第c個(gè)圖像,Cp、Ck分別是來(lái)自同一ID和不同ID的樣本,是范數(shù)的平方作為距離度量,α是一個(gè)邊界閾值;距離采用歐氏距離度量,[]表示在[]+內(nèi)的值大于零的時(shí)候,取該值為損失,小于零的時(shí)候,損失則為零。
7.根據(jù)權(quán)利要求5所述的方法,其特征在于,所述對(duì)抗身份損失模型通過(guò)公式(2)掩飾針對(duì)非目標(biāo)攻擊,其中公式(2)為:
其中,S表示log_softmax函數(shù);K是行人ID的總數(shù);ν=[1/k-1,…,0,…1/k-1]是平滑正則化,除了當(dāng)k是真實(shí)的身份時(shí),其他時(shí)候νk=1/k-1;arg min表示返回輸出概率向量的最小值的索引。
8.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述基于所述最終特征與行人圖像的特征向量之間的相似度,獲得所述待查詢圖像的匹配結(jié)果的方法,包括以下步驟:
選擇識(shí)別模型,將所述深度神經(jīng)網(wǎng)絡(luò)添加至所述識(shí)別模型中;
基于所述待查詢圖像和所述識(shí)別模型,獲取所述待查詢圖像中的行人圖像的特征向量;
基于所述最終特征與所述人圖像的特征向量之間的第二差值,確定所述匹配結(jié)果。
9.根據(jù)權(quán)利要求8所述的方法,其特征在于,所述基于所述最終特征與所述人圖像的特征向量之間的第二差值,確定所述匹配結(jié)果的方法,包括:
響應(yīng)于所述第二差值越大,則所述待查詢圖像的匹配錯(cuò)誤的結(jié)果越多;
響應(yīng)于所述第二差值越小,則所述待查詢圖像的匹配錯(cuò)誤的結(jié)果越少。
該專(zhuān)利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專(zhuān)利權(quán)人授權(quán)。該專(zhuān)利全部權(quán)利屬于南通大學(xué),未經(jīng)南通大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買(mǎi)此專(zhuān)利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211353732.X/1.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專(zhuān)利網(wǎng)。
- 基于粒子濾波視覺(jué)注意力模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法
- 一種評(píng)測(cè)注意力狀態(tài)的方法及裝置
- 注意力測(cè)評(píng)方法、系統(tǒng)及計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)
- 兒童注意力評(píng)估系統(tǒng)及其方法
- 一種注意力檢測(cè)方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 一種注意力識(shí)別方法和裝置
- 一種可靠的用戶注意力監(jiān)測(cè)估計(jì)表示模型
- 注意力特征圖獲取方法及裝置、目標(biāo)檢測(cè)的方法及裝置
- 基于通道增強(qiáng)的雙注意力生成對(duì)抗網(wǎng)絡(luò)及圖像生成方法
- 一種文本情感分析模型的優(yōu)化方法及裝置
- 行人畫(huà)像的生成及基于畫(huà)像的行人識(shí)別
- 一種輔助駕駛方法、裝置、車(chē)載終端及車(chē)輛
- 行人跟蹤方法、裝置、計(jì)算機(jī)設(shè)備及存儲(chǔ)介質(zhì)
- 基于行人重識(shí)別的跨鏡頭的行人檢索方法
- 行人重識(shí)別方法、裝置、電子設(shè)備和計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)
- 行人重識(shí)別方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)
- 一種基于深度條件隨機(jī)場(chǎng)的行人重識(shí)別方法和系統(tǒng)
- 行人跟蹤的方法、行人跟蹤裝置以及行人跟蹤系統(tǒng)
- 一種實(shí)時(shí)行人檢測(cè)與重識(shí)別方法及裝置
- 一種行人屬性識(shí)別方法、裝置及電子設(shè)備





