[發明專利]一種面向深度神經網絡的高隱蔽性對抗性圖像攻擊方法有效
| 申請號: | 201910249634.3 | 申請日: | 2019-03-29 |
| 公開(公告)號: | CN109993805B | 公開(公告)日: | 2022-08-30 |
| 發明(設計)人: | 王志波;宋夢凱;鄭思言;王騫 | 申請(專利權)人: | 武漢大學 |
| 主分類號: | G06T7/90 | 分類號: | G06T7/90;G06T7/40;G06T5/00;G06N3/08;G06F21/55 |
| 代理公司: | 武漢科皓知識產權代理事務所(特殊普通合伙) 42222 | 代理人: | 魯力 |
| 地址: | 430072 湖*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 面向 深度 神經網絡 隱蔽 對抗性 圖像 攻擊 方法 | ||
1.一種面向深度神經網絡的高隱蔽性對抗性圖像攻擊方法,其特征在于,包含如下步驟:
步驟1、給定一個目標分類神經網絡,假定攻擊者擁有對目標模型的白盒訪問權限,并設定目標類別t;
步驟2、為了衡量人眼對圖像中不同像素點的感知冗余,引入一種新的感知模型,根據圖像的亮度掩蓋、紋理掩蓋效應來刻畫,計算出圖像中單個像素值在RGB三個通道中的感知冗余;攻擊者計算給定圖像中每個像素點的感知冗余,包含像素顏色空間轉換、CIE-Lab顏色空間下的感知冗余估計、采樣三個步驟,計算出單個像素值在RGB三個通道中分別的感知冗余,
像素顏色空間轉換步驟包括,攻擊者將原始圖像從RGB顏色空間轉換到CIE-Lab顏色空間中,即對任意一個像素(r,g,b)轉換到接著利用現有的兩個模型AJNCD和NAMM來構建該像素點在CIE-Lab下的冗余空間,通過將限制AJNCD模型的亮度分量到NAMM的亮度分量,得到一個由不可區分的顏色組成的不規則的空間區域,表示為
其中是由AJNCD模型計算的像素在三個通道下的冗余,和是NAMM模型計算的亮度分量的冗余上下界,(l,a,b)表示顏色原點,(l’,a’,b’)表示與(l,a,b)不可區分的顏色點,
CIE-Lab顏色空間下的感知冗余估計步驟包括,AJNCD模型考慮兩種因素,1)該像素的亮度值;2)亮度通道的屬性;表示為
其中JNDLab是一個表示CIE-Lab顏色空間下的顏色可見性的常數,SC(a,b)表示像素的亮度,SL(E(L),Δ)模擬了紋理掩蓋效應,表示為
SL(E(L),Δ)=ρ(E(L))ΔL+1.0
其中E(L)表示像素的平均背景亮度,ΔL表示最大亮度梯度,
采樣步驟包括攻擊者需要獲得RGB顏色空間下的對抗性圖像;攻擊者首先采樣區域內有較大亮度下的最大的色度的顏色作為候選,表示為
其中和表示為分別從亮度為αiJNDl1和αiJNDl2采樣的候選點,對于采樣得到的2n個點,攻擊者將其轉換到RGB顏色空間下,每個通道下的冗余可以表示為
表示像素在RGB顏色空間下每個通道的像素值;
步驟3、為了衡量對抗性圖像的感知誤差,提出一種帶權重的誤差測量方法,首先計算每個像素的感知冗余,其倒數為每個像素的權重,然后計算噪聲矩陣帶權重的Lp范式距離,得到感知誤差;這個距離越大,感知誤差就越大;
步驟4、基于目標函數:
min JNDp(δ)+c·loss(x+δ,t)
構建合成對抗性圖像的目標函數,以感知誤差作為正則項,最終合成對抗性圖像;JNDp(δ)表示噪聲的感知誤差,loss(x+δ,t)表示噪聲圖x+δ的分類結果與分類目標的差異,c為權重參數。
2.如權利要求1所述的一種面向深度神經網絡的高隱蔽性對抗性圖像攻擊方法,其特征在于,攻擊者以一個預訓練好的分類神經網絡為攻擊目標,并擁有對目標模型的白盒訪問權限,設定目標類別為t;目標神經網絡可以形式化為F(x,θ)=y,網絡模型可以表示為
F(x)=softmax(Z(x))=y
其中Z表示logits層,softmax表示將模型輸出映射到[0,1],y表示模型的最終輸出。
3.如權利要求1所述的一種面向深度神經網絡的高隱蔽性對抗性圖像攻擊方法,其特征在于,所述的CIE-Lab顏色空間下的感知冗余估計步驟包括,相比于色度變化,人眼感知系統對亮度的變化更為敏感,HAMM模型用于衡量一個像素的亮度冗余,其考慮兩種影響因素:1)背景亮度掩蓋;2)紋理掩蓋,其表示為
其中Tl和Tt是對應的可見性閾值,Ql,t∈(0,1)表示掩蓋效應的影響。
4.如權利要求1所述的一種面向深度神經網絡的高隱蔽性對抗性圖像攻擊方法,其特征在于,提出一種帶權重的感知誤差測量方法,表示為
其中τ0是避免jndi的0值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢大學,未經武漢大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910249634.3/1.html,轉載請聲明來源鉆瓜專利網。





