[發明專利]一種基于YOLOv4的航拍小汽車檢測方法在審
| 申請號: | 202110006154.1 | 申請日: | 2021-01-05 |
| 公開(公告)號: | CN112668663A | 公開(公告)日: | 2021-04-16 |
| 發明(設計)人: | 王浩雪;曹杰;韓玉潔 | 申請(專利權)人: | 南京航空航天大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京經緯專利商標代理有限公司 32200 | 代理人: | 姜慧勤 |
| 地址: | 210016 江*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 yolov4 航拍 小汽車 檢測 方法 | ||
本發明公開了一種基于YOLOv4的航拍小汽車檢測方法,該方法使用了darknet版本的YOLOv4模型,對開源航拍數據集中2000張圖像的小汽車進行標注處理,整理成YOLOv4所需的數據集格式,然后用YOLOv4預訓練權重訓練自己的航拍數據集,使用L1損失來減少神經網絡權重進行稀疏訓練,應用通道剪枝技術對YOLOv4進行剪枝訓練,壓縮模型并提高訓練速度,對剪枝后的權重進行微調,應用隨機多尺度訓練技術提高訓練模型的泛化能力,使精度回升,最后用自己訓練的權重對航拍圖像測試集進行測試,在檢測速度達到實時性要求以及不影響檢測精度的前提下減小了內存占用空間。
技術領域
本發明涉及一種基于YOLOv4的航拍小汽車檢測方法,屬于目標檢測技術領域。
背景技術
在無人機圖像處理領域中,目標檢測是時下最熱門的方向之一,針對無人機圖像小目標、數量多、自然環境復雜以及目標易被遮擋等特點,給無人機航拍圖像目標檢測技術提出了更高的要求,傳統的目標檢測算法是通過圖像預處理、滑窗進行特征提取、使用分類器進行分類,然后再進行特征匹配和定位等步驟完成的,這種方法雖然具有一定的準確性,但是需要耗費一定的時間以及人力資源。隨著基于深度學習的目標檢測算法的快速發展,越來越多的目標檢測模型被提出,深度學習下的目標檢測算法可以通過卷積神經網絡對輸入的圖像直接進行特征提取,并通過深層神經網絡模型的學習直接回歸輸出結果,實現了端到端的目標檢測。YOLOv4就是基于這種端到端的檢測模型,具有非常高的實時性和不錯的檢測精度。YOLOv4有多尺度的檢測錨框,可以對大中小三種類型的目標進行檢測,基本滿足無人機航拍圖像小目標的檢測要求。但是由于YOLOv4是將CSPDarknet53、SPP、PANet、YOLOv3等網絡結構融合在一起組成的網絡結構模型,導致其網絡結構深度很深,訓練模型也比較厚重,占用空間內存大。
發明內容
本發明所要解決的技術問題是:提供一種基于YOLOv4的航拍小汽車檢測方法,解決了YOLOv4訓練模型占用空間大的問題,同時提高了航拍圖像小目標的檢測精度。
本發明為解決上述技術問題采用以下技術方案:
一種基于YOLOv4的航拍小汽車檢測方法,包括如下步驟:
步驟1,獲取無人機航拍圖像數據集,對航拍圖像中的小汽車進行標注,并將格式轉換為YOLO格式;將數據集分為訓練樣本和驗證樣本;
步驟2,對YOLOv4模型的參數進行初始化,所述參數包括輸入圖像尺寸、初始學習率、yolo層類別種類以及yolo前一層卷積核的深度,并使用學習率余弦退火策略降低初始學習率;
步驟3,采用預訓練權重對步驟1的數據集進行基礎訓練,得到基礎訓練后的模型,所述預訓練權重根據darknet版本的YOLOv4模型對coco數據集訓練得到;
步驟4,對基礎訓練后的模型進行L1損失稀疏訓練,得到稀疏訓練后的模型;
步驟5,采用silm-yolo極限通道剪枝策略對稀疏訓練后的模型進行剪枝,得到剪枝后的模型;
步驟6,對剪枝后的模型進行微調,得到訓練好的YOLOv4模型;
步驟7,采用訓練好的YOLOv4模型對航拍圖像進行測試,得到航拍小汽車檢測結果。
作為本發明的一種優選方案,所述步驟1的具體過程如下:
步驟11,選取開源航拍圖像數據集,將數據集整理為VOCdevkit格式;
步驟12,對數據集中的小汽車進行標注,并將標注格式轉換為YOLO格式;
步驟13,將數據集按照9:1的比例分為訓練樣本和驗證樣本。
作為本發明的一種優選方案,步驟2所述使用學習率余弦退火策略的計算公式為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京航空航天大學,未經南京航空航天大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110006154.1/2.html,轉載請聲明來源鉆瓜專利網。





