[發(fā)明專利]一種基于YOLOv3算法的多人姿態(tài)估計(jì)方法在審
| 申請(qǐng)?zhí)枺?/td> | 201910069350.6 | 申請(qǐng)日: | 2019-01-24 |
| 公開(公告)號(hào): | CN109815901A | 公開(公告)日: | 2019-05-28 |
| 發(fā)明(設(shè)計(jì))人: | 蔡哲棟;應(yīng)娜;黃鐸;楊鵬 | 申請(qǐng)(專利權(quán))人: | 杭州電子科技大學(xué) |
| 主分類號(hào): | G06K9/00 | 分類號(hào): | G06K9/00;G06K9/62 |
| 代理公司: | 杭州千克知識(shí)產(chǎn)權(quán)代理有限公司 33246 | 代理人: | 周希良 |
| 地址: | 310018 浙江省杭州市*** | 國(guó)省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 姿態(tài)估計(jì) 算法 網(wǎng)絡(luò)模型 數(shù)據(jù)集 單類 人體檢測(cè)器 提取模塊 圖片切割 網(wǎng)絡(luò)框架 行人檢測(cè) 行人數(shù)據(jù) 原始圖像 綜合數(shù)據(jù) 級(jí)聯(lián) 圖像 檢測(cè) 網(wǎng)絡(luò) | ||
1.一種基于YOLOv3算法的多人姿態(tài)估計(jì)方法,其特征在于,包括以下步驟:
S1:處理綜合數(shù)據(jù)集,得到單類行人的數(shù)據(jù)集;
S2:設(shè)計(jì)圖片切割提取模塊,將YOLOv3算法和Stacked Hourglass算法結(jié)合得到多人姿態(tài)估計(jì)網(wǎng)絡(luò)框架;
S3:訓(xùn)練S1所述數(shù)據(jù)集得到單類行人檢測(cè)的YOLOv3網(wǎng)絡(luò)模型,訓(xùn)練MPII數(shù)據(jù)集得到Hourglass姿態(tài)估計(jì)網(wǎng)絡(luò)模型;
將訓(xùn)練得到的YOLOv3網(wǎng)絡(luò)模型和級(jí)聯(lián)4個(gè)Hourglass網(wǎng)絡(luò)得到的Stacked Hourglass網(wǎng)絡(luò)模型進(jìn)行結(jié)合,得到基于YOLOv3算法的多人姿態(tài)估計(jì)網(wǎng)絡(luò)模型;
S4:輸入原始圖像,得到多人姿態(tài)估計(jì)建議的圖像。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于,所述步驟S3具體實(shí)施步驟如下:
S3.1:利用Darknet深度學(xué)習(xí)框架進(jìn)行單類行人的YOLOv3網(wǎng)絡(luò)模型訓(xùn)練;利用Pytorch深度學(xué)習(xí)框架進(jìn)行Hourglass網(wǎng)絡(luò)模型訓(xùn)練,將訓(xùn)練好的4個(gè)Hourglass網(wǎng)絡(luò)模型進(jìn)行級(jí)聯(lián)得到Stacked Hourglass網(wǎng)絡(luò)模型;
S3.2:利用訓(xùn)練得到的YOLOv3網(wǎng)絡(luò)模型進(jìn)行行人檢測(cè)識(shí)別,通過極大值抑制得到置信度最高的人體包圍框;
S3.3:將人體包圍框進(jìn)行切割提取,輸入至Stacked Hourglass網(wǎng)絡(luò)進(jìn)行姿態(tài)估計(jì)建議;
S3.4:利用中心點(diǎn)回歸原則進(jìn)行姿態(tài)估計(jì)建議回歸,得到多人姿態(tài)估計(jì)建議。
3.如權(quán)利要求1所述的方法,其特征在于:
所述YOLOv3網(wǎng)絡(luò)的核心網(wǎng)絡(luò)為Darknet-53網(wǎng)絡(luò),包含52個(gè)卷積層和1個(gè)全連接層,所述卷積層之間加入殘差網(wǎng)絡(luò)。
4.如權(quán)利要求1所述的方法,其特征在于:
所述圖片切割提取模塊,用于將原始圖片切割提取為符合Stacked Hourglass網(wǎng)絡(luò)輸入要求的圖片尺寸大小,并去除原始圖片的負(fù)面影響。
5.如權(quán)利要求1所述的方法,其特征在于:
所述Stacked Hourglass網(wǎng)絡(luò)是級(jí)聯(lián)4個(gè)Hourglass網(wǎng)絡(luò)形成的單人姿態(tài)估計(jì)網(wǎng)絡(luò)。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于杭州電子科技大學(xué),未經(jīng)杭州電子科技大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910069350.6/1.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
G06K 數(shù)據(jù)識(shí)別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識(shí)別印刷或書寫字符或者用于識(shí)別圖形,例如,指紋的方法或裝置
G06K9-03 .錯(cuò)誤的檢測(cè)或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個(gè)筆畫組成的,而且每個(gè)筆畫表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 姿態(tài)估計(jì)方法和裝置
- 對(duì)象姿態(tài)估計(jì)的方法、裝置及電子設(shè)備
- 人臉姿態(tài)估計(jì)方法、裝置、終端及存儲(chǔ)介質(zhì)
- 人體姿態(tài)估計(jì)方法及設(shè)備
- 用于估計(jì)對(duì)象的姿勢(shì)和姿態(tài)信息的系統(tǒng)和方法
- 微納衛(wèi)星姿態(tài)估計(jì)方法
- 三維人體姿態(tài)估計(jì)方法、裝置、設(shè)備及介質(zhì)
- 模型訓(xùn)練方法、姿態(tài)估計(jì)方法、裝置及電子設(shè)備
- 人體姿態(tài)估計(jì)方法、電子設(shè)備及存儲(chǔ)介質(zhì)
- 一種視頻中人體姿態(tài)估計(jì)與跟蹤方法及系統(tǒng)
- 腦網(wǎng)絡(luò)模型建立方法
- 弱光圖像增強(qiáng)方法及裝置
- 模型訓(xùn)練方法及裝置
- 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型搜索方法、裝置及存儲(chǔ)介質(zhì)
- 神經(jīng)網(wǎng)絡(luò)模型搜索方法、裝置以及電子設(shè)備
- 含有聚類拓?fù)漶詈系纳窠?jīng)網(wǎng)絡(luò)脈沖同步方法及系統(tǒng)
- 多視角的網(wǎng)絡(luò)攻防仿真系統(tǒng)
- 一種多模型訓(xùn)練方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)
- 一種神經(jīng)網(wǎng)絡(luò)模型生成方法及裝置
- 一種神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)
- 數(shù)據(jù)集及數(shù)據(jù)集“異或”的DMA傳送
- 數(shù)據(jù)處理的方法和系統(tǒng)
- 鏈接數(shù)據(jù)集
- 數(shù)據(jù)處理方法及其設(shè)備
- VR視頻轉(zhuǎn)碼方法及裝置
- 數(shù)據(jù)匹配方法以及裝置
- 一種非平衡數(shù)據(jù)集的分類方法
- 處理數(shù)據(jù)的方法、裝置、電子設(shè)備及可讀存儲(chǔ)介質(zhì)
- 基于數(shù)據(jù)傾斜的關(guān)聯(lián)查詢方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 一種實(shí)體識(shí)別模型的建立方法、系統(tǒng)、電子設(shè)備及介質(zhì)





