[發明專利]基于YOLO的視頻流安全帽識別方法、裝置、設備及存儲介質有效
申請號: | 202110360038.X | 申請日: | 2021-04-02 |
公開(公告)號: | CN113297900B | 公開(公告)日: | 2022-08-30 |
發明(設計)人: | 凌小寶;張健強;朱辰越;劉哲偉;肖子愷;聶釔合 | 申請(專利權)人: | 中國地質大學(武漢) |
主分類號: | G06V40/10 | 分類號: | G06V40/10;G06V20/40;G06V10/25;G06V10/774;G06V10/82;G06N3/04 |
代理公司: | 暫無信息 | 代理人: | 暫無信息 |
地址: | 430000 湖*** | 國省代碼: | 湖北;42 |
權利要求書: | 查看更多 | 說明書: | 查看更多 |
摘要: | |||
搜索關鍵詞: | 基于 yolo 視頻 安全帽 識別 方法 裝置 設備 存儲 介質 | ||
1.一種基于YOLO的視頻流安全帽識別方法,其特征在于,所述視頻流安全帽識別方法包括以下步驟:
對傳統的YOLO算法的損失函數進行改進,包括:
考慮到安全帽顏色為純色,在設計損失函數時考慮最多顏色像素數目與預測框內所有像素數目之比,即:
考慮到安全帽多為近似圓形,boundingbox長寬比近似為1,在設計損失函數時考慮加上對不均衡長寬比的乘法項,即:
其中,Loss為傳統的YOLO算法的損失函數,分別表示網格i的第j個boundingbox的寬度和高度,λcoord代表矩形框中心點的調整系數,表示該矩形框是否負責預測目標物體,B表示每個網格都預測的目標邊框,S表示劃分的網格數;
S1、基于改進YOLO算法對Darknet網絡識別模型進行訓練,獲得訓練好的Darknet網絡識別模型;
S2、將預設尺寸的待識別視頻圖像逐幀輸入所述訓練好的Darknet網絡識別模型,將所述預設尺寸的待識別視頻圖像分成S×S個網格,若某網格中存在被檢測物體的中心,則該網格負責該被檢測物體;
S3、預測每個所述網格負責的被檢測物體屬于C個類別中具體某一類的后驗概率Pr(classi|object);
S4、對每個所述網格均預測B個目標邊框;
預測所述目標邊框含有目標的可能性大小,記為Pr(object);
當所述目標邊框是背景時,即不包含目標,此時Pr(object)=0;
當所述目標邊框包含目標時,Pr(object)=1;
預測所述目標邊框的準確度,所述目標邊框的準確度用預測框與實際框的交并比表征;
S5、根據S4的預測結果對預測置信度進行評分,所述預測置信度的評分定義為
S6、根據S3、S4和S5的預測結果,計算目標邊框類相關置信度,所述目標邊框類相關置信度的計算公式為:
其中Pr(classi)表示bounding box內存在對象classi的概率,表示目標邊框類相關置信度;
S7、將所述目標邊框類相關置信度與閾值進行比較,若高于閾值,則識別為正確佩戴安全帽,否則識別為未正確佩戴安全帽。
2.根據權利要求1所述的視頻流安全帽識別方法,其特征在于,在步驟S1之前,還包括:
對所述Darknet網絡識別模型進行調整:在卷積層和殘差層的跳層之間增加小目標檢測層。
3.根據權利要求1所述的視頻流安全帽識別方法,其特征在于,步驟S1具體包括:
獲取視頻圖像,將所述視頻圖像逐幀分解為多個圖像樣本;
對所述圖像樣本中的安全帽進行標注,得到訓練樣本集;
以改進YOLO算法的損失函數最小為目標,通過所述訓練樣本集對Darknet網絡識別模型進行訓練,獲得訓練好的Darknet網絡識別模型。
4.根據權利要求3所述的視頻流安全帽識別方法,其特征在于,在對所述圖像樣本中的安全帽進行標注,得到訓練樣本集的步驟之前,還包括:
刪除圖像樣本中的無效圖像,所述無效圖像包括無安全帽的圖像樣本。
5.根據權利要求1所述的視頻流安全帽識別方法,其特征在于,在步驟S2之前,還包括:
對待識別視頻圖像進行預處理,得到預設尺寸的待識別視頻圖像。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國地質大學(武漢),未經中國地質大學(武漢)許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110360038.X/1.html,轉載請聲明來源鉆瓜專利網。