[發(fā)明專利]一種對齊分類模型的訓練方法和圖像分類方法有效
| 申請?zhí)枺?/td> | 201910061366.2 | 申請日: | 2019-01-22 |
| 公開(公告)號: | CN109902716B | 公開(公告)日: | 2021-01-29 |
| 發(fā)明(設計)人: | 許益鴻;齊子銘;涂清華;李志陽;張偉 | 申請(專利權)人: | 廈門美圖之家科技有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06K9/66;G06N3/04;G06N3/08 |
| 代理公司: | 北京思睿峰知識產(chǎn)權代理有限公司 11396 | 代理人: | 謝建云;張贊 |
| 地址: | 361008 福建省廈門*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 對齊 分類 模型 訓練 方法 圖像 | ||
本發(fā)明公開了一種對齊分類模型的訓練方法,對齊分類模型包括主網(wǎng)絡、第一分支網(wǎng)絡和第二分支網(wǎng)絡,方法包括:獲取經(jīng)過標注的訓練圖像,訓練圖像具有相應的標注數(shù)據(jù),標注數(shù)據(jù)包含圖像的類別;將訓練圖像輸入分類模型中進行訓練,以得到訓練后的第二分支網(wǎng)絡;將訓練圖像輸入對齊分類模型中進行訓練,優(yōu)化第二分支網(wǎng)絡,以得到訓練后的對齊分類模型。該方案能夠提高模型分類的精度,并節(jié)約模型訓練時間和所需的數(shù)據(jù)量。
技術領域
本發(fā)明涉及深度學習技術領域,尤其涉及一種對齊分類模型的訓練方法和圖像分類方法、計算設備及存儲介質。
背景技術
貓狗臉分類有廣泛的應用場景,例如在給貓狗拍照的過程中,通過區(qū)分是貓是狗,加入一些定制化的動畫控件,增加用戶的拍攝樂趣。但是傳統(tǒng)的貓狗臉分類訓練方法需要訓練的數(shù)據(jù)量龐大,網(wǎng)絡結構復雜,無法適應移動終端對數(shù)據(jù)大小和訓練速度的要求。一方面,對于圖像的分類,重新訓練一個完整的網(wǎng)絡需要耗費大量的時間;另一方面,現(xiàn)有的分類模型主要利用VGG等深度卷積網(wǎng)絡從圖像中提取特征,這種方法精度高但是耗時耗內存。
目前大部分狗臉點對齊方案利用目標檢測和跟蹤算法進行實時跟蹤。但是由于狗的品種繁多,且活潑好動,導致狗臉檢測不穩(wěn)定,影響預測狗臉點的精度。
因此,需要一種對齊分類模型,能夠同時具有對齊和分類的功能,能夠進一步提高對齊和分類的準確性。
發(fā)明內容
為此,本發(fā)明提供了一種對齊分類模型的訓練方法和圖像分類方法、計算設備及存儲介質,以力圖解決或者至少緩解上面存在的至少一個問題。
根據(jù)本發(fā)明的一個方面,提供了一種對齊分類模型的訓練方法,適于在計算設備中執(zhí)行。對齊分類模型包括主網(wǎng)絡、第一分支網(wǎng)絡和第二分支網(wǎng)絡,其中主網(wǎng)絡和第一分支網(wǎng)絡構成對齊模型,適于輸出預測特征點的坐標,主網(wǎng)絡和第二分支網(wǎng)絡構成分類模型,適于輸出預測圖像類別的概率。在該方法中,首先獲取經(jīng)過標注的訓練圖像,訓練圖像具有相應的標注數(shù)據(jù),標注數(shù)據(jù)包含圖像的類別。然后,將訓練圖像輸入分類模型中進行訓練,以得到訓練后的第二分支網(wǎng)絡。最后,將訓練圖像輸入對齊分類模型中進行訓練,優(yōu)化第二分支網(wǎng)絡,以得到訓練后的對齊分類模型。
可選地,主網(wǎng)絡包括由卷積層、激活層、池化層組成的卷積處理層,其中設置有多個分組卷積。
可選地,第一分支網(wǎng)絡包括由全連接層和dropout層組成的分類處理層,第二分支網(wǎng)絡包括卷積層、激活層、池化層、全連接層和歸一化層。
可選地,在上述方法中,訓練圖像包括狗臉圖像、貓臉圖像和其他圖像。貓臉圖像標注為0,狗臉圖像標注為1,其他圖像標注為2。
可選地,在上述方法中,可以將已標注特征點的圖像輸入對齊模型中,以輸出預測特征點的坐標;基于標注特征點坐標與預測特征點坐標的距離,計算第一損失函數(shù)的值;以及基于第一損失函數(shù)的值調整對齊模型的參數(shù),以得到訓練好的對齊模型。
可選地,在上述方法中,對齊模型為狗臉對齊模型,適于輸出狗臉點坐標。
可選地,在上述方法中,可以基于訓練好的對齊模型中主網(wǎng)絡的參數(shù)和正態(tài)分布初始化方法,初始化分類模型的參數(shù)。然后,基于標注圖像類別和預測圖像類別,計算第二損失函數(shù)的值;以及基于預設的主網(wǎng)絡的第一學習率、第二分支網(wǎng)絡的第二學習率以及第二損失函數(shù)的值,訓練分類模型。
可選地,在上述方法中,在達到預定迭代次數(shù)的情況下,將主網(wǎng)絡的參數(shù)重新初始化為訓練好的對齊模型中主網(wǎng)絡的參數(shù)。
可選地,第一學習率大于所述第二學習率。
可選地,在上述方法中,第二損失函數(shù)為交叉熵損失函數(shù),交叉熵損失函數(shù)可以通過下述公式計算:
其中,y′為已標注圖像類別,y為預測的圖像類別,i為圖像的索引。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廈門美圖之家科技有限公司,未經(jīng)廈門美圖之家科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910061366.2/2.html,轉載請聲明來源鉆瓜專利網(wǎng)。





