[發明專利]人臉跟蹤方法及其系統在審
| 申請號: | 202010117556.4 | 申請日: | 2020-02-25 |
| 公開(公告)號: | CN111339936A | 公開(公告)日: | 2020-06-26 |
| 發明(設計)人: | 王震 | 申請(專利權)人: | 杭州涂鴉信息技術有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06N3/04 |
| 代理公司: | 北京崇智專利代理事務所(普通合伙) 11605 | 代理人: | 趙麗娜 |
| 地址: | 310013 浙江省杭*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 跟蹤 方法 及其 系統 | ||
1.人臉跟蹤方法,其特征在于,處理視頻中的圖像,包括以下步驟:
(a)在第一幀圖像中檢測人臉,得到第一人臉框;
(b)用所述第一人臉框里的人臉初始化跟蹤模型,初始化的跟蹤模型在第二幀圖像中搜索人臉,得到的人臉框經校正后輸出第二人臉框;
(c)用所述第二人臉框里的人臉更新跟蹤模型,更新的跟蹤模型在第三幀圖像中搜索人臉,得到的人臉框經校正后輸出第三人臉框;
(d)用上一幀圖像輸出的人臉框中的人臉繼續更新跟蹤模型,更新的跟蹤模型在下一幀圖像中搜索人臉,得到的人臉框經校正后輸出,以此迭代處理。
2.根據權利要求1所述的人臉跟蹤方法,其特征在于,步驟(a)-步驟(d)共處理n幀圖像,n不小于15;
進一步地,所述n幀圖像處理完成后,循環步驟(a)-步驟(d);
進一步地,n幀圖像為視頻一秒的圖像幀數;
進一步地,n為15-60,優選為20-45。
3.根據權利要求1-2任一項所述的人臉跟蹤方法,其特征在于,所述檢測采用FasterRCNN檢測模型、SSD檢測模型、YOLO檢測模型、FPN檢測模型、Anchor Free類型的目標檢測框架模型、DPM檢測模型中的任一種進行;
進一步地,所述Anchor Free類型的目標檢測框架模型包括CornerNet檢測模型、CenterNet檢測模型。
4.根據權利要求1-2任一項所述的人臉跟蹤方法,其特征在于,所述跟蹤模型包括以下中的任一種:Mean shift模型、CamShift模型和KCF模型。
5.根據權利要求1-2任一項所述的人臉跟蹤方法,其特征在于,步驟(b)-步驟(d)中的校正采用輕量級卷積神經網絡實現。
6.根據權利要求5所述的人臉跟蹤方法,其特征在于,所述輕量級卷積神經網絡包括MobileNetV1、MobileNetV2、ShuffleNet、SqueezeNet、EfficientNet中的任一種。
7.根據權利要求5所述的人臉跟蹤方法,其特征在于,所述輕量級卷積神經網絡輸出兩個分支,一個分類分支得到人臉置信度,一個回歸分支得到人臉框偏移值,以此進行校正。
8.一種人臉跟蹤系統,其特征在于,包括:
人臉檢測模塊,用于在第一幀圖像中檢測人臉,得到第一人臉框;
人臉跟蹤模塊,用于上一幀圖像輸出的人臉框中的人臉更新跟蹤模型,更新的跟蹤模型在下一幀圖像中搜索人臉,得到的人臉框經校正后輸出,以此循環;
人臉驗證模塊,用于跟蹤模型搜索圖像中的人臉得到的人臉框的校正。
9.根據權利要求8所述的人臉跟蹤系統,其特征在于,所述人臉跟蹤系統還包括循環模塊,用于所述人臉跟蹤系統每次循環處理n幀圖像,n不小于15,n優選為15-60,更優選為20-45;
進一步地,所述檢測采用Faster RCNN檢測模型、SSD檢測模型、YOLO檢測模型、FPN檢測模型、Anchor Free類型的目標檢測框架模型、DPM檢測模型中的任一種進行;
進一步地,所述Anchor Free類型的目標檢測框架模型包括CornerNet檢測模型、CenterNet檢測模型。
10.根據權利要求8或9所述的人臉跟蹤系統,其特征在于,所述跟蹤模型包括以下中的任一種:Mean shift模型、CamShift模型和KCF模型;
進一步地,所述校正采用輕量級卷積神經網絡實現,所述輕量級卷積神經網絡包括MobileNetV1、MobileNetV2、ShuffleNet、SqueezeNet、EfficientNet中的任一種。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于杭州涂鴉信息技術有限公司,未經杭州涂鴉信息技術有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010117556.4/1.html,轉載請聲明來源鉆瓜專利網。





