[發明專利]基于改進YOLOv5網絡模型的車輛感知方法在審
| 申請號: | 202210856506.7 | 申請日: | 2022-07-20 |
| 公開(公告)號: | CN115171059A | 公開(公告)日: | 2022-10-11 |
| 發明(設計)人: | 趙池航;諸雨;劉洋 | 申請(專利權)人: | 東南大學 |
| 主分類號: | G06V20/54 | 分類號: | G06V20/54;G06V10/22;G06V10/24;G06V10/774;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 南京眾聯專利代理有限公司 32206 | 代理人: | 景鵬飛 |
| 地址: | 210096 *** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 改進 yolov5 網絡 模型 車輛 感知 方法 | ||
本發明公開了基于改進YOLOv5網絡模型的車輛感知方法,包括:在現有成熟的YOLOv5模型基礎上,通過對模型特征提取網絡引入CA注意力機制模塊,同時對模型添加一組錨框和檢測層,構造了適用于高速公路場景下的車輛檢測和車型分類模型。本發明通過深度學習網絡的緊密結合,將其應用于高速公路車輛感知領域可以大大提高車型識別的準確率和實時性,對高速運營管理提供技術支持。
技術領域
本發明專利涉及智能交通,智慧高速研究領域,具體涉及基于改進YOLOv5網絡模型的車輛感知方法。
背景技術
當前,高速公路交通流量日益增大,作為事故多發場景,其安全形勢面臨著嚴峻的挑戰,在存在遮擋車牌、套牌、私自改裝車輛的情況下如何有效準確地檢索肇事車輛成為一大難題;傳統的ETC識別常出現逃費、“蹭卡”等行為,已經遠遠不能滿足高速公路日常運營管理的需求?;谏疃葘W習和計算機視覺的目標檢測算法為高速公路場景下對車輛進行全自動快速定位和分類提供了新的解決方案和思路。鑒于此,本發明通過對高速公路車輛感知數據進行深度學習建模,在分析YOLOv5網絡模型的整體框架結構的基礎上,構建了引入CA注意力機制和添加初始錨框及小目標檢測層的YOLOv5模型,研究了基于改進YOLOv5網絡模型的車輛感知方法。
發明內容
發明目的:為了克服現有技術中存在的不足,提供的基于改進YOLOv5網絡模型的車輛感知方法,其利用基于改進YOLOv5模型的深度學習方法快速、有效地對高速公路場景中的車輛進行精確的定位和車型分類,可對高速公路運營管理提供技術支持。
技術方案:為實現上述目的,本發明提供的基于改進YOLOv5網絡模型的車輛感知方法,包括如下步驟:
S1:構建高速公路車輛感知數據集,包括訓練數據集和測試數據集。
S2:對模型添加一組小尺寸初始錨框,并向Neck中添加小目標檢測層。
S3:在YOLOv5網絡模型中引入CA注意力機制模塊,增強模型的特征表達和學習能力;
進一步的,所述步驟S1中構建高速公路車輛感知數據集的方法為:采用山東高速監控抓拍圖像構建車輛感知訓練數據集和測試數據集;訓練數據集由2440幅圖像組成,包含bus、car、truck三類樣本,并按照train:val:test=6:2:2的比例劃分為訓練集1464幅、驗證集488幅、測試集488幅用于模型訓練、驗證及測試,其中,bus為中型客車、大型客車;car為包含轎車、面包車、SUV各種形態的小汽車;truck為包含皮卡在內的小、中、大型貨車;測試數據集由兩日全天的高速公路監控抓拍圖像共20000幅組成,用于對訓練后的模型進行性能測試;對訓練數據集,使用labelImg對圖像中的目標車輛進行標注,標注類型為PascalVOC格式,標注方法為對每張圖像的中心車輛使用矩形框進行標注,將除車輪外的車輛及車身全部包含在框內,以避免車輪及車底陰影對模型邊界框位置回歸造成干擾和偏移。
進一步的,所述步驟S2中對模型添加一組小尺寸初始錨框,并向Neck中添加小目標檢測層,步驟如下:
S2-1:對模型添加一組小尺寸初始錨框,尺寸分別為5,6,8,14,15和11,用于對輸出最大特征圖進行檢測;
S2-2:在第18層后,添加一個上采樣層對特征圖進行上采樣操作,使特征圖的尺寸從80×80擴大至160×160,并使用添加的較小anchor在第21層時,將獲取到的大小為160×160的特征圖與backbone中第2層特征圖進行concat融合,獲取更大的特征圖進行小目標檢測。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于東南大學,未經東南大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210856506.7/2.html,轉載請聲明來源鉆瓜專利網。





