[發明專利]基于深度學習的辦公場所人員行為輕量級目標檢測方法有效
| 申請號: | 202210010800.6 | 申請日: | 2022-01-06 |
| 公開(公告)號: | CN114360064B | 公開(公告)日: | 2023-04-07 |
| 發明(設計)人: | 薛俊民;饒云波;郭航瑞;楊自強;周望;慕通澤 | 申請(專利權)人: | 電子科技大學 |
| 主分類號: | G06V40/20 | 分類號: | G06V40/20;G06N3/0464;G06N3/08;G06V10/774;G06V10/82;G06V10/80 |
| 代理公司: | 電子科技大學專利中心 51203 | 代理人: | 周劉英 |
| 地址: | 611731 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 學習 辦公 場所 人員 行為 輕量級 目標 檢測 方法 | ||
本發明公開了一種基于深度學習的辦公場所人員行為輕量級目標檢測方法,屬于圖像檢測技術領域。本發明基于所改進的C3S模塊以及FPN模塊,可以方便地應用到目標場所的指定的目標對象的檢測任務中,且檢測任務的精度高、復雜度低。本發明可以用于對指定的辦公場所的人員行為進行檢測,將實時監控的目標場所的圖像輸入到本發明的目標檢測網絡模型,基于其輸出即可得到對應的檢測結果。本發明可以用于運維場所的目標檢測,也可以用于其他業務場景的目標檢測,如營業場所監控場景、重要區域安防監控場景、重要設施監控場景等,模型對人員違規行為、場所及設備異常狀態的檢測能力將進一步得到提升。
技術領域
本發明屬于圖像檢測技術領域,具體涉及一種基于深度學習的辦公場所人員行為輕量級目標檢測方法。
背景技術
目標檢測是計算機視覺三大基礎問題之一,在自動駕駛、圖像/視頻檢索、視頻監控等領域有著重要的應用,目標檢測領域的研究具有十分重要的意義。在目標檢測領域,可以通過添加或改進組件來優化骨干網絡,但是這樣也會帶來新的計算瓶頸;在實際應用中,因對應的場景不同,實際效果會有波動,往往會更糟。但是,如果對基本構件的改進能夠在不影響訓練模型的情況下,提高相關適用場景的有效性,那么這種改進因有普遍適用性,會被廣泛接受,具有廣闊的應用前景。
目前的目標檢測算法主要有兩大類,一是兩階段檢測算法(Two-Stage),二是單階段檢測算法(One-Stage)。單目標檢測算法不需要產生候選區域(Region?Proposal)階段,可以通過一個Stage直接產生物體的類別概率和位置坐標值,比較典型的算法有YOLO、SSD和CornerNet目標檢測算法。雙階段目標檢測算法將檢測問題劃分為兩個階段,第一個階段首先產生候選區域(Region?Proposals),包含目標大概的位置信息,然后第二個階段對候選區域進行分類和位置精修,這類算法的典型代表有R-CNN,Fast?R-CNN,Faster?R-CNN等。目標檢測模型的主要性能指標是檢測準確度和速度,其中準確度主要考慮物體的定位以及分類準確度。一般情況下,Two-Stage算法在準確度上有優勢,而One-Stage算法在速度上有優勢。隨著研究和技術的發展,兩類算法都進行了改進,均能在準確度以及速度上取得較好的結果。最新的Yolov5單階段系列算法,具有易于配置環境參數、模型訓練速度快,并且批處理推理產生實時結果的優點;還能夠直接對單個圖像、批處理圖像、視頻,甚至網絡攝像頭端口輸入進行有效推理。
發明內容
本發明提供了一種基于深度學習的辦公場所人員行為輕量級目標檢測方法,可用于提升對指定工作行為的檢測精度和效率。
本發明采用的技術方案為:
基于深度學習的辦公場所人員行為輕量級目標檢測方法,該方法包括:
配置對目標場所的人員行為的檢測類別及類別標簽;
設置初始目標檢測網絡模型,所述初始目標檢測網絡模型包括骨干網絡、特征融合網絡和預測網絡;
所述骨干網絡用于提取目標場所的采集圖像的多尺度特征信息,并將提取的多尺度特征信息輸入到特征融合網絡;
所述融合網絡,基于骨干網絡提取的多尺度特征信息進行組合和融合處理,輸出多個尺度的融合特征圖,每個尺度的融合特征圖對應一種預置的錨框模式(即錨框尺寸);
所述預測網絡,對每一個融合特征圖,基于預置的錨框模式,預測該融合特征圖中目標檢測位置,以及目標類別標簽;
所述骨干網絡依次包括:隔行采樣拼接模塊,多個帶交叉卷積的單元模塊,一個卷積塊和空間金字塔池化模塊;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學,未經電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210010800.6/2.html,轉載請聲明來源鉆瓜專利網。





