[發明專利]一種顧客裝扮屬性分析方法、系統和計算機設備在審
| 申請號: | 201811257180.6 | 申請日: | 2018-10-26 |
| 公開(公告)號: | CN109635632A | 公開(公告)日: | 2019-04-16 |
| 發明(設計)人: | 張帥;賈寶芝;徐邵凱 | 申請(專利權)人: | 廈門瑞為信息技術有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06N3/04;G06Q30/02 |
| 代理公司: | 廈門市首創君合專利事務所有限公司 35204 | 代理人: | 連耀忠;李艾華 |
| 地址: | 361000 福建省廈*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 顧客 人形 屬性分析 卷積神經網絡 計算機設備 框位置 置信度 圖片 策略確定 服裝搭配 人形檢測 視頻數據 屬性選擇 統計分析 圖片截取 銷售量 輸出 檢測 風格 銷售 制定 | ||
1.一種顧客裝扮屬性分析方法,其特征在于,包括:
獲取店內圖片或/和視頻數據,從中提取單張圖片;
通過訓練好的第一深度卷積神經網絡模型對所述單張圖片進行顧客人形檢測,獲取顧客人形框位置;根據所述人形框位置進行圖片截取,獲得顧客整體人形圖片;
通過訓練好的第二深度卷積神經網絡模型對所述顧客整體人形圖片進行顧客裝扮屬性分析,獲得顧客裝扮屬性的置信度;
根據屬性選擇策略確定顧客裝扮屬性,輸出對應的屬性及置信度。
2.根據權利要求1所述的顧客裝扮屬性分析方法,其特征在于,所述通過訓練好的第一深度卷積神經網絡模型對所述單張圖片進行顧客人形檢測,獲取顧客人形框位置;根據所述人形框位置進行圖片截取,獲得顧客整體人形圖片,具體包括:
步驟a1,通過訓練好的第一深度卷積神經網絡模型對所述單張圖片進行顧客人形檢測,獲取顧客人形框位置(x1,y1,x2,y2),其中,x1和y1為人形框的左上角的坐標;x2和y2為人形框右下角的坐標;
步驟a2,使用OpenCV庫函數讀取圖片,并讀取該圖片中顧客人形框的位置,根據人形框矩形的左上角坐標(x1,y1)和右下角坐標(x2,y2)坐標來截取對應矩形中的圖片,獲得顧客整體人形圖片。
3.根據權利要求2所述的顧客裝扮屬性分析方法,其特征在于,所述第一深度卷積神經網絡模型采用ssd模型,使用預設大小圖片作為輸入,采用VGG16做基礎模型,分別將VGG16的全連接層fc6轉換成3*3卷積層conv6,將全連接層fc7轉換成1*1卷積層conv7,同時將池化層poo15由原來的stride=2的2*2變成stride=1的3*3結構,然后移除dropout層和fc8層,并新增若干卷積層。
4.根據權利要求3所述的顧客裝扮屬性分析方法,其特征在于,所述第一深度學習模型的損失函數定義為置信度誤差與位置誤差的加權和,如下:
其中,N是預設人形框的正樣本數量;Lconf(x,c)表示置信度誤差的損失函數,采用softmax loss;α表示權重系數;Lloc(x,l,g)表示位置誤差的損失函數,采用Smooth L1loss。
5.根據權利要求1所述的顧客裝扮屬性分析方法,其特征在于,所述第二深度卷積神經網絡模型使用LightCNN作為特征抽取層,使用預設大小的彩色圖片作為輸入,經過LightCNN抽取特征后,對接兩層全連接層最終輸出若干個[0,1]的概率值來標志對若干種屬性的置信度。
6.根據權利要求5所述的顧客裝扮屬性分析方法,其特征在于,所述第二深度卷積神經網絡模型使用均方差作為損失函數,如下:
其中,表示所有預測的屬性的概率值,y表示所有預測屬性的真實值,y∈{0,1},0代表本張圖片沒有這個屬性,1代表本張圖片有這個屬性;表示第i個屬性的預測概率值;yi表示第i個屬性的真實值;n代表全部屬性。
7.根據權利要求1所述的顧客裝扮屬性分析方法,其特征在于,所述根據屬性選擇策略確定顧客裝扮屬性,輸出對應的屬性及置信度,包括:
將顧客裝扮屬性歸類至互斥類或平行類;所述互斥類包括上衣、下裝、鞋、高矮及胖瘦屬性;除互斥類外的其他屬性屬于平行類;
輸出互斥類中置信度最大的屬性及對應的置信度,同時輸出平行類中的所有屬性及對應的置信度。
8.根據權利要求1所述的顧客裝扮屬性分析方法,其特征在于,所述顧客裝扮屬性分析方法,還包括:
逐一分析從店內錄像數據中提取的多張圖片,基于每張圖片輸出的裝扮屬性及其置信度,分析店內顧客的裝扮屬性分布以進行商品策略調整。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廈門瑞為信息技術有限公司,未經廈門瑞為信息技術有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811257180.6/1.html,轉載請聲明來源鉆瓜專利網。





