[發明專利]基于時尚圖遷移的特定行人衣物解析方法及系統有效
| 申請號: | 201711022989.6 | 申請日: | 2017-10-26 |
| 公開(公告)號: | CN107862696B | 公開(公告)日: | 2021-07-02 |
| 發明(設計)人: | 胡瑞敏;鄭淇;黃鵬;陳軍;梁超;阮威健;熊明福;里想;黃文軍 | 申請(專利權)人: | 武漢大學 |
| 主分類號: | G06T7/11 | 分類號: | G06T7/11;G06T7/13;G06T7/136;G06T7/62;G06N3/08;G06N3/04 |
| 代理公司: | 武漢科皓知識產權代理事務所(特殊普通合伙) 42222 | 代理人: | 張火春 |
| 地址: | 430072 湖*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 時尚 遷移 特定 行人 衣物 解析 方法 系統 | ||
1.基于時尚圖遷移的特定行人衣物解析方法,其特征是,包括:
S100對時尚數據集進行訓練,得到初始化的衣物解析模型;所述衣物解析模型用來解析人物圖像,并預測各像素的衣物標簽及各衣物標簽對應的位置;
S200利用衣物解析模型解析監控數據集中的監控圖像,并引入條帶以約束監控場景中的衣物標簽,以修正衣物解析模型;
S300利用監控數據集中的弱標簽通過示例遷移學習更新衣物解析模型;
所述引入條帶以約束監控場景中的衣物標簽,以修正衣物解析模型,具體為:
根據人體各部位比例的統計數據,采用條帶將監控圖像中行人劃分為若干橫向區域,各橫向區域對應人體一部位,即一衣物標簽對應一條帶;
采用衣物解析模型解析監控圖像,獲得各衣物標簽對應像素的位置的解析結果,將該解析結果乘以衣物標簽對應的fn(y),以修正衣物解析模型;
所述
其中,y表示衣物標簽對應像素預測的縱坐標;n表示衣物標簽的序號;fn(y)表示序號為n的衣物標簽在縱坐標為y時衣物解析模型預測正確的可能性;Tn、Bn分別表示第n個衣物標簽對應條帶的上邊緣和下邊緣的縱坐標;Hn表示條帶高度;αn、βn表示兩個約束參數,為經驗值。
2.如權利要求1所述的基于時尚圖遷移的特定行人衣物解析方法,其特征是:
所述對時尚數據集進行訓練是,采用全卷積網絡設計一具有45個類的端對端深度學習網絡,以對時尚數據集進行訓練。
3.如權利要求1所述的基于時尚圖遷移的特定行人衣物解析方法,其特征是:
所述利用監控數據集中的弱標簽通過示例遷移學習更新衣物解析模型,具體為:
S310以時尚數據集初始化訓練數據集;
S320對監控數據集中各監控圖像分別進行解析處理,并更新訓練數據集;具體為:
S321采用步驟S200 方法修正后的衣物解析模型對監控圖像進行解析,獲得解析結果;
S322計算監控圖像的置信度C=ch·cl;采用經典CNN模型全局評估監控圖像的分割圖,獲得置信度ch;所述cl表示對監控圖像中衣物標簽計算其對應的置信度,所述其中,f(·)是雙曲正切函數;wp和wa分別表示位置項和面積項的權重;Dp表示監控圖像中衣物標簽中心位置和該衣物標簽對應部位的平均中心位置的歐氏距離,所述平均中心位置為從監控數據集獲得的統計值;g(|aL-a0|)表示aL向量和a0向量的差的平均值,aL的計算具體為:分別計算各衣物標簽所占面積和總解析面積的比,構成aL向量,aL向量中各元素是分別和各衣物標簽對應的面積比;a0表示衣物標簽對應部位的平均面積比,為從監控數據集獲得的統計值;a0的計算具體為:對監控數據集中各監控圖像,分別計算各衣物標簽對應部位所占面積和總解析面積的比的平均值,構成a0向量,a0向量中各元素是分別和各衣物標簽對應的平均面積比;
S323比較置信度和置信度閾值的大小,若置信度大于置信度閾值,將該監控圖像以及對應的解析結果放入訓練數據集;否則,不放入訓練數據集;
S324 對監控數據集中各監控圖像分別重復步驟S321~S323,得到更新后的訓練數據集;
S330采用全卷積網絡對更新后的訓練數據集進行訓練,得到更新后的衣物解析模型,采用步驟S200 方法修正更新后的衣物解析模型;
S340重復步驟S320~330直至收斂,所述收斂條件為:前后兩次迭代獲得的訓練數據集中圖像樣本的平均置信度的變化值不超過預設值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢大學,未經武漢大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711022989.6/1.html,轉載請聲明來源鉆瓜專利網。





