[發(fā)明專利]一種自主學(xué)習(xí)的圖像精細(xì)分類(lèi)方法有效
| 申請(qǐng)?zhí)枺?/td> | 201710598711.7 | 申請(qǐng)日: | 2017-07-21 |
| 公開(kāi)(公告)號(hào): | CN107563406B | 公開(kāi)(公告)日: | 2021-01-01 |
| 發(fā)明(設(shè)計(jì))人: | 宣琦;肖浩泉;傅晨波;方賓偉;王金寶 | 申請(qǐng)(專利權(quán))人: | 浙江工業(yè)大學(xué) |
| 主分類(lèi)號(hào): | G06K9/62 | 分類(lèi)號(hào): | G06K9/62;G06N3/04;G06F16/953 |
| 代理公司: | 杭州斯可睿專利事務(wù)所有限公司 33241 | 代理人: | 王利強(qiáng) |
| 地址: | 310014 浙江省杭*** | 國(guó)省代碼: | 浙江;33 |
| 權(quán)利要求書(shū): | 查看更多 | 說(shuō)明書(shū): | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 自主 學(xué)習(xí) 圖像 精細(xì) 分類(lèi) 方法 | ||
一種自主學(xué)習(xí)的圖像精細(xì)分類(lèi)方法,包括以下步驟:1)人工采集對(duì)應(yīng)需求標(biāo)簽的圖像數(shù)據(jù)集,保存至強(qiáng)標(biāo)簽數(shù)據(jù)集,使用ImageNet數(shù)據(jù)集初始化卷積神經(jīng)網(wǎng)絡(luò)CNN參數(shù);2)使用強(qiáng)標(biāo)簽數(shù)據(jù)集微調(diào)修正CNN;3)判斷分類(lèi)網(wǎng)絡(luò)的優(yōu)化趨勢(shì);4)判斷網(wǎng)絡(luò)分類(lèi)精度是否達(dá)到了要求;5)利用網(wǎng)絡(luò)爬蟲(chóng)從互聯(lián)網(wǎng)爬取、人工采集與標(biāo)簽相關(guān)的圖像數(shù)據(jù)和噪聲數(shù)據(jù)保存至弱標(biāo)簽數(shù)據(jù)集;6)使用弱標(biāo)簽數(shù)據(jù)集調(diào)整濾波器的閾值;7)使用調(diào)整后的濾波器篩選數(shù)據(jù)保存至強(qiáng)標(biāo)簽數(shù)據(jù)集和噪聲數(shù)據(jù)集;8)保存網(wǎng)絡(luò)權(quán)重和濾波器參數(shù)。本發(fā)明訓(xùn)練得到的分類(lèi)器的分類(lèi)精度和魯棒性都較高。
技術(shù)領(lǐng)域
本發(fā)明涉及卷積神經(jīng)網(wǎng)絡(luò)(CNN),網(wǎng)絡(luò)爬蟲(chóng)技術(shù)及圖像分類(lèi)技術(shù),特別針對(duì)噪聲數(shù)據(jù)的分類(lèi)器訓(xùn)練技術(shù),尤其是一種自主學(xué)習(xí)的圖像精細(xì)分類(lèi)方法。
背景技術(shù)
隨著機(jī)器學(xué)習(xí)技術(shù)的應(yīng)用越來(lái)越廣泛尤其是深度學(xué)習(xí)技術(shù)的發(fā)展,依賴于深度學(xué)習(xí)的機(jī)器學(xué)習(xí)方法的設(shè)計(jì)變得越來(lái)越簡(jiǎn)單,而訓(xùn)練數(shù)據(jù)集的獲取成為了限制機(jī)器學(xué)習(xí)最大的門(mén)檻。傳統(tǒng)的機(jī)器學(xué)習(xí)所用的數(shù)據(jù)集都為人工采集,即便是用互聯(lián)網(wǎng)爬取的數(shù)據(jù),也需要人為的進(jìn)行標(biāo)注和篩選。
傳統(tǒng)的機(jī)器學(xué)習(xí)方法難以有效應(yīng)對(duì)隨機(jī)選擇圖像的子類(lèi)分類(lèi),而卷積神經(jīng)網(wǎng)絡(luò)則可以在大數(shù)據(jù)的基礎(chǔ)上較好的解決此問(wèn)題。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional NeuralNetworks,CNN)是深度學(xué)習(xí)算法的一種,近年來(lái)成為圖像識(shí)別領(lǐng)域重要的處理分析工具。卷積神經(jīng)網(wǎng)絡(luò)算法的優(yōu)點(diǎn)在于訓(xùn)練模型時(shí)不需要使用任何人工標(biāo)注的特征,算法可以自動(dòng)探索輸入變量所隱含的特征,同時(shí)網(wǎng)絡(luò)的權(quán)值共享特性,降低了模型的復(fù)雜度,減少了權(quán)值的數(shù)量。這些優(yōu)點(diǎn)使原始圖像可以直接作為網(wǎng)絡(luò)的輸入,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程。此外,卷積神經(jīng)網(wǎng)絡(luò)的池化層對(duì)平移、傾斜具有不變性,提高了算法處理圖像的魯棒性。
圖像識(shí)別是深度學(xué)習(xí)的一大受益者,如果有足夠的準(zhǔn)確標(biāo)注的圖像數(shù)據(jù)集,就能用深度學(xué)習(xí)的方法得到分類(lèi)效果較好的圖像分類(lèi)器。而互聯(lián)網(wǎng)上存在大量的弱標(biāo)簽的圖像數(shù)據(jù),已經(jīng)存在可行的方法爬取這些圖像數(shù)據(jù)。如果通過(guò)網(wǎng)絡(luò)爬蟲(chóng)的手段爬取公開(kāi)的圖像數(shù)據(jù),再通過(guò)計(jì)算機(jī)程序自動(dòng)篩選標(biāo)簽正確的圖像,就可以用較小的成本獲取較大量所需的圖像數(shù)據(jù)集,從而通過(guò)卷積神經(jīng)網(wǎng)絡(luò)訓(xùn)練出較高正確率的圖像子類(lèi)分類(lèi)器。目前常見(jiàn)的網(wǎng)絡(luò)圖像數(shù)據(jù)源主要包含兩種類(lèi)型:
1、主流圖像搜索引擎,如Baidu、Google、Bing、Yahoo等;
2、圖像分享網(wǎng)站,如Picasa、Flickr、Instagram等。
當(dāng)使用網(wǎng)絡(luò)爬蟲(chóng)技術(shù)獲取圖像數(shù)據(jù)時(shí),使用圖像搜索引擎爬取的圖像質(zhì)量隨顯示的順序大體呈現(xiàn)下降的趨勢(shì),使用圖像分享網(wǎng)站爬取的圖像質(zhì)量盡管與圖像搜索引擎相比與顯示的順序相關(guān)性較小,但隨爬取的數(shù)量增加,質(zhì)量也會(huì)有所下降。如果直接使用爬取的數(shù)據(jù)訓(xùn)練網(wǎng)絡(luò),就會(huì)出現(xiàn)網(wǎng)絡(luò)分類(lèi)器正確率先增后減的情況,最終得到的分類(lèi)器難以滿足需求。
發(fā)明內(nèi)容
為了克服現(xiàn)有技術(shù)中傳統(tǒng)的網(wǎng)絡(luò)爬蟲(chóng)得到的圖像數(shù)據(jù)存在數(shù)據(jù)噪聲過(guò)大造成的訓(xùn)練分類(lèi)器正確率低的情況,本發(fā)明提出了一種針對(duì)噪聲數(shù)據(jù)集的自主學(xué)習(xí)的圖像精細(xì)分類(lèi)方法,本發(fā)明具體用到的深度學(xué)習(xí)方法為卷積神經(jīng)網(wǎng)絡(luò)(CNN),卷積神經(jīng)網(wǎng)絡(luò)算法直接使用圖像作為輸入,避免了傳統(tǒng)識(shí)別算法中復(fù)雜的特征提取和數(shù)據(jù)重建過(guò)程,訓(xùn)練得到的分類(lèi)器的分類(lèi)精度和魯棒性都較高。
本發(fā)明為解決上述技術(shù)問(wèn)題所采用的技術(shù)方案如下:
一種自主學(xué)習(xí)的圖像精細(xì)分類(lèi)方法,包括以下步驟:
S1:人工采集對(duì)應(yīng)需求標(biāo)簽的圖像數(shù)據(jù)集,保存至強(qiáng)標(biāo)簽數(shù)據(jù)集,使用ImageNet數(shù)據(jù)集初始化卷積神經(jīng)網(wǎng)絡(luò)CNN參數(shù);
S2:使用強(qiáng)標(biāo)簽數(shù)據(jù)集微調(diào)修正CNN;
S3:判斷分類(lèi)網(wǎng)絡(luò)的優(yōu)化趨勢(shì);
S4:判斷網(wǎng)絡(luò)分類(lèi)精度是否達(dá)到了要求;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于浙江工業(yè)大學(xué),未經(jīng)浙江工業(yè)大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買(mǎi)此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710598711.7/2.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專利網(wǎng)。
- 上一篇:基于多分辨率神經(jīng)網(wǎng)絡(luò)的車(chē)庫(kù)自動(dòng)駕駛語(yǔ)義目標(biāo)識(shí)別方法
- 下一篇:一種面向網(wǎng)絡(luò)空間多模態(tài)大數(shù)據(jù)的特征表示學(xué)習(xí)系統(tǒng)
- 同類(lèi)專利
- 專利分類(lèi)
G06K 數(shù)據(jù)識(shí)別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識(shí)別印刷或書(shū)寫(xiě)字符或者用于識(shí)別圖形,例如,指紋的方法或裝置
G06K9-03 .錯(cuò)誤的檢測(cè)或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個(gè)筆畫(huà)組成的,而且每個(gè)筆畫(huà)表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無(wú)須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 根據(jù)用戶學(xué)習(xí)效果動(dòng)態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個(gè)人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動(dòng)學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 游戲?qū)W習(xí)效果評(píng)測(cè)方法及系統(tǒng)
- 彩色圖像和單色圖像的圖像處理
- 圖像編碼/圖像解碼方法以及圖像編碼/圖像解碼裝置
- 圖像處理裝置、圖像形成裝置、圖像讀取裝置、圖像處理方法
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序以及圖像解碼程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序、以及圖像解碼程序
- 圖像形成設(shè)備、圖像形成系統(tǒng)和圖像形成方法
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序





