[發明專利]一種基于關鍵點檢測的衣服種類和屬性分類方法有效
| 申請號: | 201710780963.1 | 申請日: | 2017-09-01 |
| 公開(公告)號: | CN107918780B | 公開(公告)日: | 2021-09-03 |
| 發明(設計)人: | 陳紀凱;潘炎;賴韓江;印鑒;高靜 | 申請(專利權)人: | 中山大學;廣東恒電信息科技股份有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 廣州粵高專利商標代理有限公司 44102 | 代理人: | 林麗明 |
| 地址: | 510275 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 關鍵 檢測 衣服 種類 屬性 分類 方法 | ||
本發明提供一種基于關鍵點檢測的衣服種類和屬性分類方法,該方法先采集訓練樣本的數據;然后構建可配置的檢測衣服關鍵點的深度模型,并將訓練樣本的數據輸入深度模型,以對深度模型進行訓練;接著利用訓練后的檢測關鍵點的深度模型對衣服圖像進行分析,預測衣服圖像中每個關鍵點的位置;最后根據S3中預測關鍵點的結果,以此提取相關局部信息,再融合全局的圖片信息,再通過深度模型對衣服種類和屬性進行訓練、預測。該方法實現了能夠更好融合衣服局部和全局特征。
技術領域
本發明涉及計算機視覺和模式識別領域,更具體地,涉及一種基于關鍵點檢測的衣服種類和屬性分類方法。
背景技術
圖像識別是計算機視覺研究中的一個重要領域,其主要任務是讓計算機識別輸入的圖像類別。近年來,深度學習憑借其強大的學習能力,在計算機視覺領域成為了主流模型,包括圖像識別,物體檢測,圖像分割等。每年的ImageNet圖像識別競賽提供了一個平臺使得研究人員不斷提高在圖像識別領域的技術水平。AlexNet、VGG、GoogleNet和ResidualNet等技術依次提高了圖像識別的準確度。
雖然普適性的圖像識別技術已經相當成熟,但是針對衣服等精細化領域的識別依然具有相當大的研究意義。
隨著科技的發展,電子商務市場越來越大,其中衣服占了相當大的比重。因此研究針對衣服細化領域的種類及屬性分類,對用戶精準推薦商品則具有相當大的意義。
傳統的衣服種類和屬性的識別方法往往采用兩階段的方法:
1)提取人工設計的圖像特征(如HOG,color histogram)
2)根據這些特征設計專門的分類器。
然而,這一類的傳統方法受限于特征的表達能力,實際分類效果上并不好
隨著近年來深度學習的發展,它在圖像分類、物體檢測和圖像分割等領域取得了顯著成效。Qiang Chen等人在2015年提出基于衣服屬性描述該人特質的方法。JunshiHuang等人2015年提出以衣服屬性為基本思想的衣服檢索方法。這些方法都是基于深度學習強大的特征表達能力及其端對端的分類預測能力。
為了能夠應對衣服當中人體模特大幅度姿勢變化和遮擋,研究人員提出了像人體對齊、衣服分割和關鍵點檢測等方法。這些方法有助于提取更加魯棒的衣服特征表達,進一步提高分類的準確率。
Liu等人在2016年提出了Deepfashion數據集,該數據定義了衣服的6個關鍵點,并相應提出了一個簡易的模型預測衣服屬性和分類。
發明內容
本發明提供一種能夠更好融合衣服局部和全局特征的基于關鍵點檢測的衣服種類和屬性分類方法。
為了達到上述技術效果,本發明的技術方案如下:
一種基于關鍵點檢測的衣服種類和屬性分類方法,包括以下步驟:
S1:采集訓練樣本的數據;
S2:構建可配置的檢測衣服關鍵點的深度模型,并將訓練樣本的數據輸入深度模型,以對深度模型進行訓練;
S3:利用訓練后的檢測關鍵點的深度模型對衣服圖像進行分析,預測衣服圖像中每個關鍵點的位置;
S4:根據S3中預測關鍵點的結果,以此提取相關局部信息,再融合全局的圖片信息,再通過深度模型對衣服種類和屬性進行訓練、預測。
進一步地,所述步驟S2中深度模型包括兩個卷積神經網絡;
第一個深度卷積神經網絡對衣服關鍵點位置進行學習,運用卷積神經網絡的卷積層提取圖像的數據的基礎表達,再利用反卷積層得到與原圖同樣尺寸的特征圖來預測各個關鍵點的位置;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中山大學;廣東恒電信息科技股份有限公司,未經中山大學;廣東恒電信息科技股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710780963.1/2.html,轉載請聲明來源鉆瓜專利網。





