[發(fā)明專利]一種具有穩(wěn)定性能的深度學(xué)習(xí)方法有效
| 申請(qǐng)?zhí)枺?/td> | 202110258971.6 | 申請(qǐng)日: | 2021-03-10 |
| 公開(公告)號(hào): | CN112949658B | 公開(公告)日: | 2022-07-08 |
| 發(fā)明(設(shè)計(jì))人: | 崔鵬;張興璇 | 申請(qǐng)(專利權(quán))人: | 清華大學(xué) |
| 主分類號(hào): | G06V10/44 | 分類號(hào): | G06V10/44;G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 北京清亦華知識(shí)產(chǎn)權(quán)代理事務(wù)所(普通合伙) 11201 | 代理人: | 廖元秋 |
| 地址: | 100084*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 具有 穩(wěn)定 性能 深度 學(xué)習(xí)方法 | ||
本發(fā)明提出一種具有穩(wěn)定性能的深度學(xué)習(xí)方法,屬于深度學(xué)習(xí)技術(shù)領(lǐng)域。該方法獲取帶有標(biāo)注的圖片數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù)集,構(gòu)建一個(gè)由深度特征提取器和分類器構(gòu)成的深度學(xué)習(xí)網(wǎng)絡(luò);從訓(xùn)練數(shù)據(jù)集中隨機(jī)選取一個(gè)批次的樣本輸入該網(wǎng)絡(luò),其中深度特征提取器輸出該批次樣本的原始特征并經(jīng)過隨機(jī)傅立葉特征變換后得到對(duì)應(yīng)隨機(jī)傅立葉表征矩陣;利用隨機(jī)傅立葉表征矩陣對(duì)原始特征進(jìn)行獨(dú)立性檢測,訓(xùn)練得到各樣本對(duì)應(yīng)權(quán)重;利用該權(quán)重對(duì)當(dāng)前網(wǎng)絡(luò)的預(yù)測損失值進(jìn)行重加權(quán)后得到最終訓(xùn)練損失值并更新網(wǎng)絡(luò)參數(shù),直至深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練結(jié)束。本發(fā)明可應(yīng)用到存在跨分布問題的圖片識(shí)別系統(tǒng)及目標(biāo)檢測系統(tǒng)中,解決由于訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)分布偏移產(chǎn)生的準(zhǔn)確率下降問題。
技術(shù)領(lǐng)域
本發(fā)明屬于圖像識(shí)別、物體檢測等技術(shù)領(lǐng)域,特別提出一種具有穩(wěn)定性能的深度學(xué)習(xí)方法。
背景技術(shù)
目前深度學(xué)習(xí)在很多研究領(lǐng)域特別是計(jì)算機(jī)視覺領(lǐng)域(如圖像識(shí)別,物體檢測等技術(shù)領(lǐng)域)取得了前所未有的進(jìn)展,比如殘差卷積網(wǎng)絡(luò)可以大大提高計(jì)算機(jī)視覺識(shí)別系統(tǒng)對(duì)圖像的識(shí)別準(zhǔn)確率,基于區(qū)域的卷積網(wǎng)絡(luò)可以大大提高目標(biāo)檢測系統(tǒng)的準(zhǔn)確率等等。很多基于深度學(xué)習(xí)的計(jì)算機(jī)視覺技術(shù)已遠(yuǎn)遠(yuǎn)超過傳統(tǒng)方法。
而大部分當(dāng)前的機(jī)器學(xué)習(xí)和深度學(xué)習(xí)算法都假設(shè)訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)滿足獨(dú)立同分布的性質(zhì),并在這種假設(shè)下取得了非常好的效果。但是在現(xiàn)實(shí)應(yīng)用中測試數(shù)據(jù)的分布往往與訓(xùn)練數(shù)據(jù)不同,極易導(dǎo)致這些算法的準(zhǔn)確率顯著下降。在應(yīng)用到真實(shí)場景的視覺分類系統(tǒng),比如物體識(shí)別系統(tǒng)中,當(dāng)目標(biāo)圖片來源并不明確或?qū)嶋H數(shù)據(jù)在模型訓(xùn)練階段難以獲取時(shí),訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)之間往往會(huì)出現(xiàn)分布偏移,一般的深度模型的識(shí)別準(zhǔn)確率會(huì)明顯下降甚至完全失去識(shí)別能力。比如在圖片分類任務(wù)中,如果在訓(xùn)練數(shù)據(jù)中狗通常在室內(nèi),而在測試數(shù)據(jù)中狗經(jīng)常出現(xiàn)在沙灘上,則一般的深度模型很可能無法準(zhǔn)確識(shí)別。
部分現(xiàn)有方法使用域適應(yīng)技術(shù)改變訓(xùn)練數(shù)據(jù)的分布使其與測試數(shù)據(jù)分布趨于相同,而在實(shí)際應(yīng)用中測試數(shù)據(jù)的信息往往難以獲得。另外一些新的域泛化算法試圖不使用測試數(shù)據(jù)而僅使用訓(xùn)練數(shù)據(jù)訓(xùn)練出具有泛化能力的深度模型,如Muandet等人提出的DG方法。這些算法需要訓(xùn)練數(shù)據(jù)具有明確并已標(biāo)注的域類別的標(biāo)簽,而大部分現(xiàn)有數(shù)據(jù)集并不存在明顯可分的分布多樣性或其不易標(biāo)注。比如對(duì)于一個(gè)從互聯(lián)網(wǎng)收集的圖片分類數(shù)據(jù)集,由于圖片中可能涉及的視覺元素(如不同顏色、紋理、亮度等等)往往比較復(fù)雜,導(dǎo)致訓(xùn)練集的分布也較為復(fù)雜,制定域劃分的標(biāo)準(zhǔn)也就非常困難。
在機(jī)器學(xué)習(xí)領(lǐng)域,有一些方法使用樣本重加權(quán)的方法增強(qiáng)模型的泛化能力,但這些方法均針對(duì)線性模型或離散特征,所以目前針對(duì)非線性深度模型的連續(xù)特征的樣本重加權(quán)是一個(gè)主要的挑戰(zhàn)點(diǎn)。
發(fā)明內(nèi)容
本發(fā)明的目的是為了克服已有技術(shù)的不足之處,提出一種具有穩(wěn)定性能的深度學(xué)習(xí)方法。本發(fā)明可以提高深度模型跨分布泛化的能力;本發(fā)明不需要任何有關(guān)測試數(shù)據(jù)的信息以及訓(xùn)練數(shù)據(jù)上的分布標(biāo)注即可完成訓(xùn)練;另外,本發(fā)明可以在平方開銷下消除深度特征間的線形和非線性相關(guān)性。本發(fā)明可以應(yīng)用到存在跨分布問題的圖片識(shí)別系統(tǒng)以及目標(biāo)檢測系統(tǒng)中,解決由于訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)分布偏移產(chǎn)生的準(zhǔn)確率下降問題。
本發(fā)明一種具有穩(wěn)定性能的深度學(xué)習(xí)方法,其特征在于,該方法首先獲取用于分類任務(wù)的圖片數(shù)據(jù)集訓(xùn)練數(shù)據(jù)集并構(gòu)建一個(gè)由深度特征提取器和分類器構(gòu)成的深度學(xué)習(xí)網(wǎng)絡(luò);從訓(xùn)練數(shù)據(jù)集中隨機(jī)選取一個(gè)批次的樣本輸入該網(wǎng)絡(luò),其中深度特征提取器輸出該輸入批次樣本的原始特征并經(jīng)過隨機(jī)傅立葉特征變換后得到對(duì)應(yīng)的隨機(jī)傅立葉表征矩陣;利用隨機(jī)傅立葉表征矩陣對(duì)原始特征進(jìn)行獨(dú)立性檢測,訓(xùn)練得到輸入批次各樣本的對(duì)應(yīng)權(quán)重;利用該權(quán)重對(duì)當(dāng)前網(wǎng)絡(luò)的預(yù)測損失值進(jìn)行重加權(quán)后得到修正后的最終訓(xùn)練損失值并更新網(wǎng)絡(luò)參數(shù),直至深度學(xué)習(xí)網(wǎng)絡(luò)訓(xùn)練結(jié)束,得到訓(xùn)練完畢的深度學(xué)習(xí)網(wǎng)絡(luò)。該方法包括以下步驟:
1)獲取訓(xùn)練數(shù)據(jù)集;
獲取帶有標(biāo)注的可用于分類任務(wù)的圖片數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù)集,訓(xùn)練數(shù)據(jù)集中的每個(gè)訓(xùn)練樣本包含圖片和該圖片對(duì)應(yīng)的分類標(biāo)簽;
2)構(gòu)建深度學(xué)習(xí)網(wǎng)絡(luò):
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于清華大學(xué),未經(jīng)清華大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110258971.6/2.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。





