[發明專利]一種基于質量節點模型的學習方法有效
| 申請號: | 202010818346.8 | 申請日: | 2020-08-14 |
| 公開(公告)號: | CN112132147B | 公開(公告)日: | 2022-04-19 |
| 發明(設計)人: | 周迪;肖海林;曹廣;張仲非;劉鵬;韋文生 | 申請(專利權)人: | 浙江大學;浙江宇視科技有限公司 |
| 主分類號: | G06V10/764 | 分類號: | G06V10/764;G06V10/82;G06V30/24;G06V30/194;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 杭州君度專利代理事務所(特殊普通合伙) 33240 | 代理人: | 楊天嬌 |
| 地址: | 310012 浙江*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 質量 節點 模型 學習方法 | ||
本發明公開了一種基于質量節點模型的學習方法,引入了基于質量節點的引力模型,以實現簡約可解釋了目標損失函數計算;以各類的引力大小作為分類預測結果,可準確的確定所屬分類,提高分類識別準確率;并且利用小樣本學習機制,利用數量較少的帶標注樣本進行訓練,而不必對海量樣本進行繁重的標注,不必應用海量新樣本對卷積神經網絡進行訓練,大幅減少訓練時間,并且在同樣的訓練工作量下具有更高的識別準確率。
技術領域
本申請屬于圖像識別技術領域,具體涉及一種基于質量節點模型的學習方法,尤其是一種基于質量節點和小樣本學習的圖像識別方法。
背景技術
隨著深度學習在圖像領域內的飛速發展,計算機對圖像的識別已經接近甚至超越人類的表現,尤其機器視覺在文字識別領域獲得了非常不錯的效果,對提高工作生活效率起到了至關重要的作用。
目前主流的機器學習方法是,利用深度學習模型進行海量(百萬級以上)帶標注數據的訓練,不斷迭代優化神經網絡的參數。這種方式的缺點顯而易見:需要對海量樣本數據進行標注,并且泛化能力較弱,收斂速度較慢。
發明內容
本申請的目的在于提供一種基于質量節點模型的學習方法,大幅減少訓練時間,并且在同樣的訓練工作量下具有更高的識別準確率。
為實現上述目的,本申請所采取的技術方案為:
一種基于質量節點模型的學習方法,所述基于質量節點模型的學習方法,包括:
步驟1、從文字圖片庫的所有文字類別中隨機抽取W類,在W類對應的每類中抽取若干個帶標注樣本形成樣本集S,在W類對應的每類剩余的帶標注樣本中隨機抽取一個或多個帶標注樣本形成樣本集Q,每個帶標注樣本均作為有質量的點;
步驟2、取樣本集S中每一個帶標注樣本輸入卷積神經網絡中,將卷積神經網絡輸出的每個帶標注樣本的特征向量作為典型向量;
步驟3、將樣本集Q中的所有帶標注樣本分別輸入卷積神經網絡中,得到卷積神經網絡輸出的每個帶標注樣本的特征向量,根據質量節點模型計算每個帶標注樣本與各類別之間的引力如下:
式中,Fq,k表示類別k對樣本集Q中帶標注樣本q的引力,Mk總代表樣本集S中類別k的所有帶標注樣本的質量總和,Nk表示樣本集S中類別k的帶標注樣本的個數,Ms,k,i代表樣本集S中類別k的第i個帶標注樣本的質量,mq代表樣本集Q中帶標注樣本q的質量,Zs,k,i表示樣本集S中類別k的第i個成員的典型向量,Zq表示樣本集Q中帶標注樣本q的特征向量,d2()表示歐氏距離的平方;
步驟4、根據樣本集Q中所有帶標注樣本與各類別之間的引力計算損失函數,利用隨機梯度下降法優化損失函數,得到優化后的卷積神經網絡;
步驟5、取優化后的卷積神經網絡,對待分類的文字圖像輸出待分類特征向量,根據待分類特征向量計算待分類的文字圖像與對應各類別之間的引力,選取引力最大的類別作為分類預測結果輸出。
以下還提供了若干可選方式,但并不作為對上述總體方案的額外限定,僅僅是進一步的增補或優選,在沒有技術或邏輯矛盾的前提下,各可選方式可單獨針對上述總體方案進行組合,還可以是多個可選方式之間進行組合。
作為優選,所述每個帶標注樣本均作為有質量的點,包括:
所有帶標注樣本作為有質量的點,不同字體的帶標注樣本具有不同的質量,并且質量的大小與字體的標準程度正相關。
作為優選,所述卷積神經網絡包括B個串接的卷積塊,每個卷積塊包括一個卷積核為3*3的卷積層、一個批量正則化處理、一個ReLU激活函數、一個池化核為2*2的最大池化層。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于浙江大學;浙江宇視科技有限公司,未經浙江大學;浙江宇視科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010818346.8/2.html,轉載請聲明來源鉆瓜專利網。





