[發(fā)明專(zhuān)利]基于類(lèi)特征修復(fù)融合的圖像取證對(duì)抗性攻擊防御方法在審
| 申請(qǐng)?zhí)枺?/td> | 202011175112.2 | 申請(qǐng)日: | 2020-10-28 |
| 公開(kāi)(公告)號(hào): | CN112215780A | 公開(kāi)(公告)日: | 2021-01-12 |
| 發(fā)明(設(shè)計(jì))人: | 陳晉音;陳若曦;蔣燾 | 申請(qǐng)(專(zhuān)利權(quán))人: | 浙江工業(yè)大學(xué) |
| 主分類(lèi)號(hào): | G06T5/00 | 分類(lèi)號(hào): | G06T5/00;G06T5/50;G06N3/04;G06N3/08 |
| 代理公司: | 杭州天勤知識(shí)產(chǎn)權(quán)代理有限公司 33224 | 代理人: | 曹兆霞 |
| 地址: | 310014 浙*** | 國(guó)省代碼: | 浙江;33 |
| 權(quán)利要求書(shū): | 查看更多 | 說(shuō)明書(shū): | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 特征 修復(fù) 融合 圖像 取證 對(duì)抗性 攻擊 防御 方法 | ||
本發(fā)明公開(kāi)了一種基于類(lèi)特征修復(fù)融合的圖像取證對(duì)抗性攻擊防御方法,包括:將含有對(duì)抗擾動(dòng)的原始圖像輸入至基于卷積神經(jīng)網(wǎng)絡(luò)構(gòu)建的分類(lèi)模型中,并對(duì)提取特征圖進(jìn)行類(lèi)特征可視化,基于可視化結(jié)果獲取重構(gòu)區(qū)域后,對(duì)重構(gòu)區(qū)域進(jìn)行特征修復(fù),獲得修復(fù)圖像;原始圖像去噪處理后得到去噪圖像,融合修復(fù)圖像和去噪圖像,得到融合圖像,依據(jù)融合圖像的像素分布特征,選擇圖像質(zhì)量高的若干個(gè)分類(lèi)區(qū)域輸入至分類(lèi)模型中,將分類(lèi)模型輸出的最高分類(lèi)概率作為防御后的類(lèi)標(biāo)。該方法能夠提高深度學(xué)習(xí)模型魯棒性并準(zhǔn)確還原取證信息。
技術(shù)領(lǐng)域
本發(fā)明涉及數(shù)據(jù)安全領(lǐng)域,具體涉及一種基于類(lèi)特征修復(fù)融合的圖像取證對(duì)抗性攻擊防御方法。
背景技術(shù)
隨著電子技術(shù)的飛速發(fā)展,數(shù)碼相機(jī)及圖像掃描設(shè)備迅速的普及,數(shù)字圖像已廣泛應(yīng)用于人們的日常辦公、學(xué)習(xí)及生活當(dāng)中,在媒體宣傳、軍事情報(bào)、司法鑒定、科學(xué)發(fā)現(xiàn)等關(guān)鍵領(lǐng)域廣泛應(yīng)用。近年來(lái)由于深度學(xué)習(xí)模型的優(yōu)越性能和穩(wěn)定表現(xiàn),它被應(yīng)用于圖像識(shí)別領(lǐng)域,在圖像取證方面起到了重要作用。
但深度學(xué)習(xí)模型易受到對(duì)抗性擾動(dòng)而出現(xiàn)誤判斷。在計(jì)算機(jī)視覺(jué)領(lǐng)域的對(duì)抗性攻擊算法如FGSM,DeepFool,BIM,JSMA等都能使深度學(xué)習(xí)模型分類(lèi)錯(cuò)誤。同時(shí),通過(guò)特定技術(shù)偽造圖像的源相機(jī)指紋,也能欺騙取證算法,如對(duì)抗性生成網(wǎng)絡(luò)GAN和WGAN。隨著數(shù)字圖像篡改和偽造技術(shù)的泛濫和簡(jiǎn)易化,反取證技術(shù)使圖像真實(shí)性和權(quán)威性面臨著巨大的挑戰(zhàn),會(huì)給國(guó)家、軍事和社會(huì)安全造成意想不到的危害。因此,圖像取證領(lǐng)域的安全性,特別是基于深度學(xué)習(xí)的圖像取證技術(shù)的安全性,引起了人們的重視,對(duì)圖像取證中對(duì)抗攻擊的防御措施也顯得尤為重要。
Chen等人使用簡(jiǎn)單的深度學(xué)習(xí)模型對(duì)輸入圖像進(jìn)行中值濾波的預(yù)處理,去除圖像內(nèi)容對(duì)檢測(cè)性能的影響,放大圖像噪聲信號(hào)來(lái)檢測(cè)圖像是否經(jīng)過(guò)了中值濾波的篡改,詳見(jiàn)文獻(xiàn)Jiansheng Chen,Median filtering forensics based on convolutional neuralnetworks.2015。Bayer等人開(kāi)發(fā)了約束卷積層,它能夠聯(lián)合抑制圖像的內(nèi)容并自適應(yīng)地學(xué)習(xí)操作檢測(cè)特征,對(duì)各種圖像的篡改操作都有很好的檢測(cè)效果,詳見(jiàn)文獻(xiàn)BelhassenBayar,A Deep Learning Approach To Universal Image Manipulation DetectionUsing A New Convolutional Layer2016。Marra等人探索了一種基于光響應(yīng)非唯一性的GAN生成圖像檢測(cè)方案來(lái)判斷輸入圖像是否為GAN生成的,詳見(jiàn)文獻(xiàn)Marra,F.;Gragnaniello,D.;Verdoliva,L.;Poggi,G.Do GANs leave artificial fingerprintsarXiv2018。
但是,現(xiàn)有技術(shù)中至少存在以下缺點(diǎn)和不足:
(1)這些防御方法只能檢測(cè)圖像是否被篡改或?yàn)閭卧欤荒苓€原原始圖像設(shè)備的指紋信息和類(lèi)標(biāo)。
(2)這些防御方法難以區(qū)分對(duì)抗性擾動(dòng)和圖像設(shè)備指紋信息,在面對(duì)對(duì)抗性攻擊時(shí),經(jīng)常不能取得較好的取證效果。
(3)深度學(xué)習(xí)模型對(duì)于對(duì)抗性攻擊的魯棒性并沒(méi)有得到提高。
發(fā)明內(nèi)容
為了克服已有圖像取證方法不能還原原始圖像設(shè)備指紋信息、難以防御對(duì)抗性攻擊的不足,本發(fā)明提供了一種基于類(lèi)特征修復(fù)融合的圖像取證對(duì)抗性攻擊防御方法,該方法能夠提高深度學(xué)習(xí)模型魯棒性并準(zhǔn)確還原取證信息。
本發(fā)明解決其技術(shù)問(wèn)題所采用的技術(shù)方案是:
一種基于類(lèi)特征修復(fù)融合的圖像取證對(duì)抗性攻擊防御方法,包括以下步驟:
將原始圖像輸入至分類(lèi)模型中,并對(duì)提取特征圖進(jìn)行類(lèi)特征可視化,基于可視化結(jié)果獲取重構(gòu)區(qū)域后,對(duì)重構(gòu)區(qū)域進(jìn)行特征修復(fù),獲得修復(fù)圖像;
該專(zhuān)利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專(zhuān)利權(quán)人授權(quán)。該專(zhuān)利全部權(quán)利屬于浙江工業(yè)大學(xué),未經(jīng)浙江工業(yè)大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買(mǎi)此專(zhuān)利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011175112.2/2.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專(zhuān)利網(wǎng)。





