[發(fā)明專利]一種基于深度學(xué)習(xí)的服飾解析方法、設(shè)備及存儲(chǔ)介質(zhì)在審
| 申請?zhí)枺?/td> | 202011437792.0 | 申請日: | 2020-12-10 |
| 公開(公告)號(hào): | CN112560637A | 公開(公告)日: | 2021-03-26 |
| 發(fā)明(設(shè)計(jì))人: | 桂彥;熊達(dá)銘 | 申請(專利權(quán))人: | 長沙理工大學(xué) |
| 主分類號(hào): | G06K9/00 | 分類號(hào): | G06K9/00;G06K9/34;G06K9/46;G06K9/62;G06N20/00 |
| 代理公司: | 廣州嘉權(quán)專利商標(biāo)事務(wù)所有限公司 44205 | 代理人: | 鄧建輝 |
| 地址: | 410000 湖南省*** | 國省代碼: | 湖南;43 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 深度 學(xué)習(xí) 服飾 解析 方法 設(shè)備 存儲(chǔ) 介質(zhì) | ||
本發(fā)明公開了一種基于深度學(xué)習(xí)的服飾解析方法、設(shè)備及存儲(chǔ)介質(zhì),方法包括:獲取用于訓(xùn)練的原始圖像,通過姿態(tài)估計(jì)器從原始圖像中采集與每一人體部位相對(duì)應(yīng)的一個(gè)關(guān)鍵點(diǎn);隨機(jī)采集背景點(diǎn),將關(guān)鍵點(diǎn)和背景點(diǎn)轉(zhuǎn)換成對(duì)應(yīng)的距離圖;將原始圖像和距離圖輸入至預(yù)設(shè)的區(qū)域級(jí)分割模型中進(jìn)行訓(xùn)練;通過訓(xùn)練完成的區(qū)域級(jí)分割模型對(duì)待解析圖像進(jìn)行處理,得到輸出的服飾解析結(jié)果。通過本發(fā)明得到的服飾解析結(jié)果更加精確且快速;本發(fā)明能夠很好地消除不利因素對(duì)分割的干擾,而且能夠快速且高精度地處理具有復(fù)雜場景的圖像。
技術(shù)領(lǐng)域
本發(fā)明涉及服飾識(shí)別技術(shù)領(lǐng)域,特別涉及一種基于深度學(xué)習(xí)的服飾解析方法、設(shè)備及存儲(chǔ)介質(zhì)。
背景技術(shù)
服飾解析是圖像中人物的像素級(jí)識(shí)別,將人體各部位和服飾衣物進(jìn)行分割歸類,且識(shí)別出人體的臉部、頭發(fā)、上衣、褲子等區(qū)域。服飾解析在諸多領(lǐng)域均有應(yīng)用,如人體外觀轉(zhuǎn)移(human appearance transfer)、行為識(shí)別(behavior recognition)、時(shí)裝合成(fashion synthesis)。基于深度學(xué)習(xí)的服飾解析主要涉及姿態(tài)估計(jì)(Pose Estimation)和語義分割等基礎(chǔ)技術(shù)。卷積神經(jīng)網(wǎng)絡(luò)是服飾解析的核心支撐技術(shù);語義分割領(lǐng)域相關(guān)技術(shù)為服飾解析提供了重要參考。不同于傳統(tǒng)人體語義分割算法,服飾解析能夠更精細(xì)劃分人體的外觀特征(衣物、四肢等),比簡單尋找人物輪廓的傳統(tǒng)分割更具有挑戰(zhàn)性。其主流研究思路從兩個(gè)角度展開:一是傳統(tǒng)方法基于概率圖模型的方法和基于結(jié)構(gòu)圖方法模型;二是基于神經(jīng)網(wǎng)絡(luò)的方法,提取關(guān)鍵點(diǎn)信息再服飾解析。通常,不同場景下的圖像可能包含邊界模糊,多人物,前景遮擋,背視圖,頭部缺失和半身圖等復(fù)雜場景,這些不利因素使得現(xiàn)有人體解析方法效率低下以及難以獲得高質(zhì)量的人體解析結(jié)果。
在人體語義分割領(lǐng)域,早期研究主要針對(duì)人體與背景的分割問題,劃分人物與背景。其中,Wu等人(Early Hicrar-Chical Contexts Leamed by Convolutional Networksfor Image Segmentation.ICPR 2014:1538-1543.)對(duì)卷積神經(jīng)網(wǎng)絡(luò)的不同層級(jí)特征融合處理,淺層網(wǎng)絡(luò)描述局部特征信息,深層網(wǎng)絡(luò)捕獲圖像的全局場景特征關(guān)系信息,通過融合不同層級(jí)的特征對(duì)輸入圖像像素分類,完成人體語義分割任務(wù)。Song等人(1000fps HumanSegmentation With Deep Convolutional NeuralNetworks.ACPR 2015:474-478)提出端到端(end-to-end)的卷積神經(jīng)網(wǎng)絡(luò)分割算法,該算法提高了人體圖像語義分割的精度和速度。Long等人(Long J,Shelhamer E,Darrell T.Fully Convolutional Networks forSemantic Segmentation[J].IEEE Transactions on Patterm AnalysisMachineIntelligence,2014,39(4):640-651.)首次提出全卷積網(wǎng)絡(luò)(Fully ConvolutionalNetworks,FCN)的概念,通過將全連接層替換為卷積層的方法,從抽象特征復(fù)原每個(gè)像素得到該像素的具體所屬類別。在全卷積網(wǎng)絡(luò)的推動(dòng)下,服飾解析問題在近期取得巨大的進(jìn)展。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于長沙理工大學(xué),未經(jīng)長沙理工大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011437792.0/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
G06K 數(shù)據(jù)識(shí)別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識(shí)別印刷或書寫字符或者用于識(shí)別圖形,例如,指紋的方法或裝置
G06K9-03 .錯(cuò)誤的檢測或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個(gè)筆畫組成的,而且每個(gè)筆畫表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 根據(jù)用戶學(xué)習(xí)效果動(dòng)態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個(gè)人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動(dòng)學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 游戲?qū)W習(xí)效果評(píng)測方法及系統(tǒng)





