[發明專利]一種基于YOLOV5的危險區域人員監控方法在審
| 申請號: | 202110941137.7 | 申請日: | 2021-08-17 |
| 公開(公告)號: | CN113642474A | 公開(公告)日: | 2021-11-12 |
| 發明(設計)人: | 竇濤;沈雪松;陸金波;吳昊翰;賀榮鵬 | 申請(專利權)人: | 四川航天電液控制有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/08 |
| 代理公司: | 成都虹盛匯泉專利代理有限公司 51268 | 代理人: | 周永宏 |
| 地址: | 610041 四川省*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 yolov5 危險 區域 人員 監控 方法 | ||
本發明公開了一種基于YOLOV5的危險區域人員監控方法,包括以下步驟:步驟1、構建深度學習模型訓練集:從礦下監控視頻流獲取圖像,并對圖像進行樣本標注;步驟2、利用步驟1標注好的樣本訓練基于YOLOV5的深度學習網絡模型,步驟3、構建測試數據集,并傳入訓練好的深度學習網絡模型進行測試,判斷深度學習網絡模型是否符合工程需求,若是則結束訓練,否則修改網絡參數重新進行訓練;步驟4、利用訓練好的深度學習網絡模型對礦下視頻監控中的人員危險行為進行識別,并輸出識別結果。本發明在穩定基礎的YOLOV5框架上,引入了更多特征提取和自適應模塊,能有效地應用到實際的人員行為監控任務中,極大提高監控的數據解析能力。
技術領域
本發明屬于圖像檢測和圖像分割技術領域,特別涉及一種基于YOLOV5的危險區域人員監控方法。
背景技術
目標檢測是泛身份識別領域的一個基礎性的算法,是智能監控系統的核心部分,以及圖像處理和計算機視覺學科的重要分支,同時目標檢測對后續的人臉識別、步態識別、人群計數、實例分割等任務起著至關重要的作用。由于深度學習的廣泛運用,目標檢測算法得到了較為快速的發展。
基于YOLO的目標檢測算法將對象檢測重新定義為一個回歸問題。它將單個卷積神經網絡(CNN)應用于整個圖像,將圖像分成網格,并預測每個網格的類概率和邊界框。
目標檢測算法對每個類的對象應用一個稱為“非最大抑制(Non MaxSuppression)”的方法來過濾出“置信度”小于閾值的邊界框,這可以對圖像進行預測。
目標檢測的邊界框可以使用四個描述符進行描述,分別為:邊界框的中心、高度、寬度、值映射到對象所屬的類。
暗圖像增強算法用于增強圖像中的有用信息,其目的是要改善圖像的視覺效果。目前圖像增強常用算法有:直方圖均衡化、直方圖規定化、基于物理模型圖像增強算法、基于偏微分方程和變分的圖像增強算法以及變化域圖像增強算法等等,隨著技術的發展,算法也在不斷地改進。
發明內容
本發明的目的在于克服現有技術的不足,提供一種在穩定基礎的YOLOV5框架上,引入了更多特征提取和自適應模塊,能有效地應用到實際的人員行為監控任務中,可以極大地提高監控的數據解析能力的基于YOLOV5的危險區域人員監控方法。
本發明的目的是通過以下技術方案來實現的:一種基于YOLOV5的危險區域人員監控方法,包括以下步驟:
步驟1、構建深度學習模型訓練集:從礦下監控視頻流獲取圖像,并對圖像進行樣本標注;
步驟2、利用步驟1標注好的樣本訓練基于YOLOV5的深度學習網絡模型,
步驟3、構建測試數據集,并傳入訓練好的深度學習網絡模型進行測試,判斷深度學習網絡模型是否符合工程需求,若是則結束訓練,否則修改網絡參數重新進行訓練;
步驟4、利用訓練好的深度學習網絡模型對礦下視頻監控中的人員危險行為進行識別,并輸出識別結果。
進一步地,所述步驟1包括以下子步驟:
步驟11、從礦下監控視頻流獲取圖像,并對圖像進行預處理:將亮度低于設定閾值的圖像進行增強;然后對圖像進行隨機水平/垂直翻轉、旋轉、裁剪操作;
步驟12、將處理后的圖像做樣本標注,對每張圖像上的人員的位置信息做預先標注。
進一步地,所述深度學習網絡模型由三個主要組件組成:
1)Backbone組件:在不同圖像細粒度上聚合并形成圖像特征的卷積神經網絡;
2)Neck組件:一系列混合和組合圖像特征的網絡層,并將圖像特征傳遞到預測層;
3)Prediction組件:對圖像特征進行預測,生成邊界框并預測類別。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于四川航天電液控制有限公司,未經四川航天電液控制有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110941137.7/2.html,轉載請聲明來源鉆瓜專利網。





