[發明專利]一種基于改進YOLOv3模型的行人檢測方法及系統在審
| 申請號: | 202110453896.9 | 申請日: | 2021-04-26 |
| 公開(公告)號: | CN113205028A | 公開(公告)日: | 2021-08-03 |
| 發明(設計)人: | 錢惠敏;陳緯;陳嘯 | 申請(專利權)人: | 河海大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06F16/951;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京縱橫知識產權代理有限公司 32224 | 代理人: | 何春廷 |
| 地址: | 211100 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 改進 yolov3 模型 行人 檢測 方法 系統 | ||
本發明公開了一種基于改進YOLOv3模型的行人檢測方法及系統,包括:獲取自動駕駛場景下實時采集的監控場景視頻,從視頻中提取圖像幀;將圖像幀輸入到預先訓練好的改進YOLOv3模型,利用改進YOLOv3模型對圖像幀中是否包含行人進行判斷,若是則用邊界框標記,若否則不做任何處理。優點:本發明能夠提高對遮擋目標的識別能力,有效提高行人檢測精度,對小目標和遮擋目標誤檢率更低,并且速度更快,具有一定的實際應用價值,并且具有良好的泛化性能。
技術領域
本發明涉及一種基于改進YOLOv3模型的行人檢測方法及系統,屬于計算機視覺技術領域。
背景技術
近年來,基于深度卷積神經網絡的計算機視覺技術已取得了舉世矚目的成就,這些成就推動了無人駕駛、監控視頻、互聯網的視頻檢索處理、人機交互、虛擬現實、醫療保健、智能安防等技術的發展。行人檢測是自動駕駛技術中的一項重要研究內容,也是計算機視覺領域的研究熱點之一。
隨著深度神經網絡,特別是卷積神經網絡在目標檢測任務中的發展,以及大規模行人檢測公共數據集的出現,基于深度神經網絡的行人檢測算法已在實際問題中得到應用,但仍然存在小尺寸行人目標和被遮擋行人目標被誤檢、漏檢或重復檢測的問題。
此外在自動駕駛應用場景下,行人目標檢測算法應當同時具備實時性和準確性。R-CNN、Faster R-CNN等二階段方法由于實時性難以得到保證而較難實現應用,而YOLOv2、YOLOv3等一階段算法在經過不斷地改進后,在檢測的實時性方面性能十分突出,但需要較大的GPU顯存,資源消耗量大,在部署方面存在一定的困難。
發明內容
本發明所要解決的技術問題是克服現有技術的缺陷,提供一種基于改進YOLOv3模型的行人檢測方法及系統。
為解決上述技術問題,本發明提供一種基于改進YOLOv3模型的行人檢測方法,包括:
獲取自動駕駛場景下實時采集的監控場景視頻,從視頻中提取圖像幀;
將圖像幀輸入到預先訓練好的改進YOLOv3模型,利用改進YOLOv3模型對圖像幀中是否包含行人進行判斷,若是用邊界框標記,若否則不做任何處理;
所述改進YOLOv3模型的改進包括:
在YOLOv3模型的ResNet34的網絡結構的卷積塊的近道連接上依次添加平均池化層和卷積層,得到ResNet34-D,并作為改進YOLOv3模型的的主干網絡;
在YOLOv3模型的多特征融合網絡中增加空間金字塔池化層,用于提取不同感受野的特征并進行融合;
在YOLOv3的多特征融合網絡的輸出層增加DropBlock模塊,用于隨機刪除一部分輸出層中固定大小的整片區域神經單元,利用保留下來的神經元集中學習剩余部分的特征表示;
利用DIoU損失函數代替YOLOv3模型中原先邊框位置損失函數。
進一步的,所述改進YOLOv3模型的訓練過程包括:
使用從網絡中下載的ImageNet數據集訓練ResNet34_D網絡,得到ResNet34_D網絡的權重文件;
利用所述ResNet34_D網絡的權重文件初始化改進Y0L0v3模型的主干網絡的網絡參數;
獲取自動駕駛場景下的歷史行人圖像,根據歷史行人圖像構建初始數據集,對初始數據集中的圖像進行標注,得到行人數據集,按隨機方式從行人數據集中選擇訓練集和驗證集;
根據訓練集和所述DIoU損失函數,利用梯度下降反向傳播方法,對初始化網絡參數后的改進YOLOv3模型中的深度卷積神經網絡的參數進行迭代更新;將迭代至最大設定次數后得到的網絡參數作為最優的網絡參數,完成訓練,得到初步的改進YOLOv3模型;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于河海大學,未經河海大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110453896.9/2.html,轉載請聲明來源鉆瓜專利網。





