[發明專利]一種車輛的快速檢測方法在審
| 申請號: | 201810883971.3 | 申請日: | 2018-08-06 |
| 公開(公告)號: | CN109284752A | 公開(公告)日: | 2019-01-29 |
| 發明(設計)人: | 劉鵬;李松斌 | 申請(專利權)人: | 中國科學院聲學研究所;中國科學院聲學研究所南海研究站 |
| 主分類號: | G06K9/32 | 分類號: | G06K9/32;G06K9/62 |
| 代理公司: | 北京方安思達知識產權代理有限公司 11472 | 代理人: | 陳琳琳;李彪 |
| 地址: | 100190 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 車輛檢測 快速檢測 卷積神經網絡 采集圖像 輸出結果 輸入步驟 計算量 構建 檢測 | ||
本發明公開了一種車輛的快速檢測方法,所述方法包括:步驟1)構建和訓練車輛檢測卷積神經網絡;步驟2)采集圖像并進行處理,輸入步驟1)的訓練好的車輛檢測卷積神經網絡,根據輸出結果獲取車輛檢測結果。本發明的方法不僅檢測精度高,而且計算量小,無需借助GPU,在CPU上即可實現快速檢測。
技術領域
本發明涉及計算機視覺及深度學習技術領域,特別涉及一種車輛的快速檢測方法。
背景技術
在現代社會發展日新月異的今天,交通事業作為關系人們日常生活的重要領域,雖然取得了長足的進步,但仍不能完全滿足人們生活運輸的需要,不斷凸顯的交通問題已成為一個全球性的棘手問題,交通擁擠、堵塞日益嚴重,交通事故和環境污染也越來越引起社會的重視和關。獲取實時準確的道路車輛數量與分布信息是智能交通場景感知系統的基本需求,主要涉及感興趣目標檢測,已檢出目標識別,運動目標跟蹤三個階段。其中識別與跟蹤都基于檢測結果,車輛檢測性能在系統中起著至關重要的作用。
傳統的車輛檢測方法有背景差分法、幀差法、光流法等,這些方法通過車輛與背景在顏色、形狀上的差異,將車輛從影像中提取出來。通常有較多人為指定的閾值,泛化性能較差檢測結果不穩定。另一類是基于統計模型的算法,如SVM算法、Adaboost算法等,利用大量正負樣本,結合學習算法,得到判別函數,從而對影像中的目標進行識別。自提出后基于統計模型的車輛檢測方法便得到了廣泛應用,但是其檢測性能仍與實際需求存在較大的差距。
近年來,基于深度學習思想的方法取得了極大的發展,為計算機科學向智能化方向發展提供了算法上的支持。深度學習的基本思想就是構建深層的人工神經網絡,模擬人腦的學習機制,采用非監督學習的方式“自動”學習目標物體的特征,學習到的特征具有層次結構:從具體細節到抽象概念,這樣的特征對數據本身有著更本質的刻畫。深度學習的方法在許多領域的應用都取得了突破性的成功,美國多家銀行的手寫數字識別系統、Google的圖像分類語音識別綜合項目Google Brain、微軟的全自動同聲傳譯系統都是基于深度學習的方法實現的。其中,基于卷積神經網絡的深度學習算法在圖像處理的多個領域都取得了世界領先的水平。
傳統的基于運動信息的車輛檢測方法受環境變化影響比較大,易受背景噪聲干擾,檢測精度較低。而基于機器學習的方法受到訓練樣本數量限制,缺乏對不同姿態或是遮擋狀態的車輛檢測能力,泛化性能較差。近年來快速發展的基于深度學習的檢測方法檢測精度上較傳統方法有質的飛躍,龐大的網絡公開數據集作為訓練樣本保證了此類方法的泛化能力。然而,絕大多數基于深度學習的檢測方法由于所用的通用卷積神經網絡復雜度較高,需要高性能的GPU輔助運算才能達到較快的處理速度,這一點限制其大規模的推廣應用。
目前,基于卷積神經網絡的車輛檢測算法已經能夠取得較高的檢測準確性,但是仍然存在檢測速度慢、計算資源消耗大等問題,通常需要在GPU硬件平臺上才能實現實時處理。然而,GPU硬件平臺較為昂貴,實際部署成本太高,用戶無法承受。用戶迫切渴望一種無需GPU即可實現實時分析的高性能車輛檢測方法。
發明內容
本發明的目的在于,克服現有基于深度學習的車輛檢測技術中檢測速度滿足不了實際應用需要的問題,提出了一種車輛的快速檢測方法,在保證檢測準確率的同時提升檢測速度。
為了實現上述目的,本發明提供了一種車輛的快速檢測方法,所述方法包括:
步驟1)構建和訓練車輛檢測卷積神經網絡;
步驟2)采集圖像并進行處理,輸入步驟1)的訓練好的車輛檢測卷積神經網絡,根據輸出結果獲取車輛檢測結果。
作為上述方法的一種改進,所述步驟1)具體包括:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國科學院聲學研究所;中國科學院聲學研究所南海研究站,未經中國科學院聲學研究所;中國科學院聲學研究所南海研究站許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810883971.3/2.html,轉載請聲明來源鉆瓜專利網。





