[發(fā)明專(zhuān)利]一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模圖像分類(lèi)方法在審
| 申請(qǐng)?zhí)枺?/td> | 201910851853.9 | 申請(qǐng)日: | 2019-09-10 |
| 公開(kāi)(公告)號(hào): | CN110728352A | 公開(kāi)(公告)日: | 2020-01-24 |
| 發(fā)明(設(shè)計(jì))人: | 張萌;李嬌杰;李國(guó)慶;呂鋒;段斌 | 申請(qǐng)(專(zhuān)利權(quán))人: | 東南大學(xué) |
| 主分類(lèi)號(hào): | G06N3/04 | 分類(lèi)號(hào): | G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 32204 南京蘇高專(zhuān)利商標(biāo)事務(wù)所(普通合伙) | 代理人: | 徐紅梅 |
| 地址: | 214000 江*** | 國(guó)省代碼: | 江蘇;32 |
| 權(quán)利要求書(shū): | 查看更多 | 說(shuō)明書(shū): | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 卷積 圖像 卷積神經(jīng)網(wǎng)絡(luò) 訓(xùn)練圖像集 測(cè)試圖像 輸出特征 圖像分類(lèi) 歸一化指數(shù) 圖像數(shù)據(jù)集 圖像輸入 訓(xùn)練圖像 連接層 池化 分類(lèi) 全局 | ||
本發(fā)明公開(kāi)了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模圖像分類(lèi)方法,包括將大規(guī)模圖像數(shù)據(jù)集分為訓(xùn)練圖像集和測(cè)試圖像集;使用標(biāo)準(zhǔn)卷積操作對(duì)訓(xùn)練圖像集進(jìn)行卷積操作,得到標(biāo)準(zhǔn)卷積后的圖像;對(duì)得到的標(biāo)準(zhǔn)卷積后的圖像采用PSD卷積進(jìn)行操作,得到PSD卷積后的圖像;將得到的PSD卷積后的圖像經(jīng)過(guò)全局平均池化層,得到1×1的輸出特征圖像;將得到的1×1的輸出特征圖像通過(guò)全連接層,最后接入一個(gè)歸一化指數(shù)函數(shù)層完成對(duì)訓(xùn)練圖像的分類(lèi),即得到PSDNet卷積神經(jīng)網(wǎng)絡(luò)模型。將測(cè)試圖像集中的圖像輸入得到的PSDNet卷積神經(jīng)網(wǎng)絡(luò)模型中,完成圖像分類(lèi)。本發(fā)明測(cè)試結(jié)果有明顯的提高。
技術(shù)領(lǐng)域
本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,具體涉及一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模圖像分類(lèi)方法。
背景技術(shù)
卷積神經(jīng)網(wǎng)絡(luò)(CNN)由人工神經(jīng)網(wǎng)絡(luò)發(fā)展而來(lái),獨(dú)特的權(quán)值共享的結(jié)構(gòu)減小了網(wǎng)絡(luò)的規(guī)模,更容易訓(xùn)練。由于圖像平移、縮放和旋轉(zhuǎn)的不變性,卷積神經(jīng)網(wǎng)絡(luò)廣泛應(yīng)用于圖像識(shí)別領(lǐng)域。卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖像的平移,縮放,旋轉(zhuǎn)等形式的變形具有高度的適應(yīng)性,在圖像識(shí)別和目標(biāo)檢測(cè)等領(lǐng)域應(yīng)用廣泛,如微軟利用卷積神經(jīng)網(wǎng)絡(luò)做阿拉伯文和中文的手寫(xiě)識(shí)別系統(tǒng),谷歌使用卷積神經(jīng)網(wǎng)絡(luò)來(lái)識(shí)別街景圖片中的人臉和車(chē)牌等等。
CNN的性能正在迅速提高:ImageNet挑戰(zhàn)的獲勝者將分類(lèi)準(zhǔn)確率從2012年AlexNet的84.7%提高到ResNet-152的96.5%。然而,精度的提高是以高計(jì)算復(fù)雜度為代價(jià)的。例如,AlexNet需要1.4×1010FLOPs來(lái)處理單個(gè)224×224圖像,ResNet-152需要2.26×1011FLOPs。在移動(dòng)嵌入式設(shè)備端,一個(gè)最主要的挑戰(zhàn)在于大量的運(yùn)算需要過(guò)多的硬件資源并且功耗巨大。
為了解決與計(jì)算能力相關(guān)的這一系列問(wèn)題,已經(jīng)有大量的研究試圖優(yōu)化它們的性能。
這些研究工作可以分為兩種:使用預(yù)先訓(xùn)練的模型壓縮現(xiàn)有網(wǎng)絡(luò)結(jié)構(gòu),以及設(shè)計(jì)新的高效的網(wǎng)絡(luò)結(jié)構(gòu),這些結(jié)構(gòu)將從頭開(kāi)始訓(xùn)練。模型壓縮方法通常基于傳統(tǒng)的壓縮技術(shù),如哈希(hashing)、赫夫曼編碼(Huffman coding)、因式分解(factorization)、剪枝(pruning)和模型量化(quantization)。
實(shí)際上,第二種方法比第一種方法更早地被研究。GoogLeNet中提出了Inception模塊,希望在不增加模型大小和計(jì)算成本的情況下構(gòu)建更深的網(wǎng)絡(luò)結(jié)構(gòu),然后在Inception模塊中通過(guò)分解卷積進(jìn)一步改進(jìn)。深度可分離卷積(Depthwise separable Convolution,DWConvolution)更加體現(xiàn)因式分解的思想,將標(biāo)準(zhǔn)卷積分解為深度卷積(Depthwiseconvolution),再用1×1卷積核進(jìn)行常規(guī)卷積。MobileNet為基于DW Convolution的移動(dòng)設(shè)備設(shè)計(jì)了卷積神經(jīng)網(wǎng)絡(luò),該操作能夠以較少的參數(shù)獲得了較好的結(jié)果。本發(fā)明主要使用深度卷積來(lái)進(jìn)一步提高參數(shù)效率。
發(fā)明內(nèi)容
發(fā)明目的:提供了一種基于深度卷積神經(jīng)網(wǎng)絡(luò)的大規(guī)模圖像分類(lèi)方法,改變了常見(jiàn)大規(guī)模圖像分類(lèi)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),減少了網(wǎng)絡(luò)參數(shù),并且降低了計(jì)算成本,提高了大規(guī)模圖像分類(lèi)測(cè)試準(zhǔn)確率。
本發(fā)明的一種基于深度卷積(depthwise convolution)神經(jīng)網(wǎng)絡(luò)的大規(guī)模圖像分類(lèi)方法,提出適合對(duì)大規(guī)模圖像進(jìn)行精準(zhǔn)分類(lèi)的PSDNet卷積塊(Pointwise-Standard-Depthwise),輸入的未經(jīng)處理的圖像依次通過(guò)1×1標(biāo)準(zhǔn)卷積(pointwise convolution)層、3×3標(biāo)準(zhǔn)卷積層,最后通過(guò)3×3深度卷積層,得到經(jīng)過(guò)卷積處理的特征圖像,并且PSDNet卷積塊也使用快捷連接(shortcut connections)對(duì)輸入圖像進(jìn)行恒等映射,在每一個(gè)卷積層之前都對(duì)圖像進(jìn)行批量歸一化(Batch Normalization)處理以及非線性函數(shù)激活處理。
技術(shù)方案:為實(shí)現(xiàn)上述發(fā)明目的,本發(fā)明采用以下技術(shù)方案:
該專(zhuān)利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專(zhuān)利權(quán)人授權(quán)。該專(zhuān)利全部權(quán)利屬于東南大學(xué),未經(jīng)東南大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買(mǎi)此專(zhuān)利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910851853.9/2.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專(zhuān)利網(wǎng)。
- 上一篇:數(shù)據(jù)處理方法、相關(guān)設(shè)備及計(jì)算機(jī)存儲(chǔ)介質(zhì)
- 下一篇:一種基于BP人工神經(jīng)網(wǎng)絡(luò)的城市積澇水位預(yù)報(bào)方法
- 同類(lèi)專(zhuān)利
- 專(zhuān)利分類(lèi)
- 卷積運(yùn)算處理方法及相關(guān)產(chǎn)品
- 一種卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算方法及系統(tǒng)
- 卷積運(yùn)算方法及系統(tǒng)
- 卷積運(yùn)算方法、裝置及系統(tǒng)
- 深度神經(jīng)網(wǎng)絡(luò)裁剪方法、裝置及電子設(shè)備
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法和圖像處理裝置
- 卷積神經(jīng)網(wǎng)絡(luò)及基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法
- 一種圖像處理方法、裝置以及計(jì)算機(jī)存儲(chǔ)介質(zhì)
- 用于卷積神經(jīng)網(wǎng)絡(luò)的卷積運(yùn)算裝置
- 基于FPGA實(shí)現(xiàn)圖像識(shí)別的方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 彩色圖像和單色圖像的圖像處理
- 圖像編碼/圖像解碼方法以及圖像編碼/圖像解碼裝置
- 圖像處理裝置、圖像形成裝置、圖像讀取裝置、圖像處理方法
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序以及圖像解碼程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序、以及圖像解碼程序
- 圖像形成設(shè)備、圖像形成系統(tǒng)和圖像形成方法
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序
- 終端卷積神經(jīng)網(wǎng)絡(luò)的處理方法、裝置、存儲(chǔ)介質(zhì)及處理器
- 一種基于卷積神經(jīng)網(wǎng)絡(luò)的圖像深度估計(jì)方法
- 卷積神經(jīng)網(wǎng)絡(luò)的生成方法及裝置
- 一種卷積神經(jīng)網(wǎng)絡(luò)硬件模塊部署方法
- 卷積神經(jīng)網(wǎng)絡(luò)的處理方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 一種卷積神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方法及裝置
- 一種基于通道數(shù)搜索卷積神經(jīng)網(wǎng)絡(luò)的方法
- 卷積神經(jīng)網(wǎng)絡(luò)處理方法、裝置和電子系統(tǒng)
- 一種基于空洞卷積循環(huán)神經(jīng)網(wǎng)絡(luò)的聲音事件檢測(cè)方法
- 基于稀疏卷積神經(jīng)網(wǎng)絡(luò)的目標(biāo)檢測(cè)方法及檢測(cè)裝置
- 基于圖像分塊的自適應(yīng)特征提取方法
- 圖像增強(qiáng)模型的訓(xùn)練、圖像增強(qiáng)方法、裝置和存儲(chǔ)介質(zhì)
- 圖像分割模型訓(xùn)練方法、圖像分割方法、裝置及電子設(shè)備
- 訓(xùn)練集的獲取方法、裝置及電子設(shè)備
- 圖像處理方法、裝置、設(shè)備及其訓(xùn)練方法
- 一種新的圖像數(shù)據(jù)擴(kuò)充方法、系統(tǒng)、終端及存儲(chǔ)介質(zhì)
- 面向fMRI視覺(jué)分類(lèi)的零次學(xué)習(xí)方法
- 訓(xùn)練樣本生成方法、圖像分割方法、裝置、設(shè)備和介質(zhì)
- 一種基于最優(yōu)訓(xùn)練集的深度學(xué)習(xí)圖像分類(lèi)方法及系統(tǒng)
- 圖像處理模型的訓(xùn)練方法和裝置、白平衡處理方法和裝置





