[發明專利]基于yolov5模型的目標檢測方法及相關裝置在審
| 申請號: | 202210187351.2 | 申請日: | 2022-02-28 |
| 公開(公告)號: | CN114627393A | 公開(公告)日: | 2022-06-14 |
| 發明(設計)人: | 楊術;吳振洲;常曉磊;宋志斌 | 申請(專利權)人: | 深圳織算科技有限公司 |
| 主分類號: | G06V20/17 | 分類號: | G06V20/17;G06V20/40;G06V10/764;G06V10/82;G06K9/62;G06F17/16;G06N3/04;G06N3/08 |
| 代理公司: | 深圳中一聯合知識產權代理有限公司 44414 | 代理人: | 梁立耀 |
| 地址: | 518000 廣東省深圳市南山區粵海街道高*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 yolov5 模型 目標 檢測 方法 相關 裝置 | ||
本申請實施例公開了一種基于yolov5模型的目標檢測方法、裝置、電子設備及計算機可讀存儲介質,該方法包括:獲取待處理圖像;將待處理圖像輸入至yolov5模型的輸入端,獲得輸入端輸出的第一矩陣,第一矩陣為m行n列的矩陣;通過yolov5模型的變換模塊將第一矩陣變換成第二矩陣,第二矩陣為j行n列的矩陣;基于第二矩陣,通過yolov5模型的基準網絡、Neck網絡和輸出端,獲得待處理圖像的目標檢測結果,j小于m。可見,本申請實施例在現有yolov5模型的基礎上增加了變換模塊,通過變換模塊將維度為m*n的第一矩陣降為維度為j*n的第二矩陣,降低了矩陣數據規模,進而降低了計算復雜度,減少了計算耗時。
技術領域
本申請屬于目標檢測領域,尤其涉及一種基于yolov5模型的目標檢測方法、裝置、電子設備及計算機可讀存儲介質。
背景技術
目前,yolov5算法被用于檢測出圖像中的感興趣目標。但是,傳統的yolov5算法的數據規模較大,導致計算復雜度較高,計算耗時較長。
發明內容
本申請實施例提供一種基于yolov5模型的目標檢測方法、裝置、電子設備及計算機可讀存儲介質,可以解決傳統yolov5算法由于數據規模較大導致計算復雜度較高,計算耗時較長的問題。
第一方面,本申請實施例提供一種基于yolov5模型的目標檢測方法,該yolov5模型包括輸入端、變換模塊、基準網絡、Neck網絡和輸出端,該方法包括:
獲取待處理圖像;
將待處理圖像輸入至輸入端,獲得輸入端輸出的第一矩陣,第一矩陣為m行n列的矩陣;
通過變換模塊將第一矩陣變換成第二矩陣,第二矩陣為j行n列的矩陣;
基于第二矩陣,通過基準網絡、Neck網絡和輸出端,獲得待處理圖像的目標檢測結果;
其中,j小于m,m、j和n均為正整數。
由上可見,本申請實施例在現有yolov5模型的基礎上增加了變換模塊,以通過變換模塊將輸入端最終輸出的第一矩陣變換成第二矩陣,再將第二矩陣帶入模型后續的基準網絡,并通過基準網絡、Neck網絡和輸出端進行后續運算,獲得目標檢測結果,這樣,通過變換模塊將維度為m*n的第一矩陣降為維度為j*n的第二矩陣,降低了矩陣數據規模,進而降低了計算復雜度,減少了計算耗時。
在第一方面的一些可能的實現方式中,通過變換模塊將第一矩陣變換成第二矩陣,包括:
將第一矩陣輸入至變換模塊,以使變換模塊通過計算第一矩陣的協方差矩陣獲得第三矩陣,并在對第三矩陣進行特征分解,得到特征值和每個特征值對應的特征向量后,根據特征值的分布,選取前j個特征值對應的特征向量構成第四矩陣,再將第四矩陣和第一矩陣相乘,得到第二矩陣。
在第一方面的一些可能的實現方式中,獲取待處理圖像,包括:
根據預先配置的視頻流地址,獲取通過無人機搭載的圖像采集裝置采集的視頻流;
根據預先配置的幀率從視頻流中截取圖像,以獲得待處理圖像。
在該實現方式中,使用變換模塊將第一矩陣變換成第二矩陣,使得無人機拍攝的圖像數據中的主要信息得以保留,并且將次要信息進行了一定程度的削弱,進而減少了目標檢測的干擾,提高了yolov5模型的目標檢測準確性。
在第一方面的一些可能的實現方式中,獲取待處理圖像,在獲得待處理圖像的目標檢測結果之后,方法還包括:
將目標檢測結果推送至無人機告警前端。
第二方面,本申請實施例提供一種基于yolov5模型的目標檢測裝置,該yolov5模型包括輸入端、變換模塊、基準網絡、Neck網絡和輸出端,該裝置包括:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳織算科技有限公司,未經深圳織算科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210187351.2/2.html,轉載請聲明來源鉆瓜專利網。





