[發明專利]一種基于視頻分析的車輛測速方法有效
| 申請號: | 202010626133.5 | 申請日: | 2020-07-02 |
| 公開(公告)號: | CN111753797B | 公開(公告)日: | 2022-02-22 |
| 發明(設計)人: | 高飛;董信陽;葛一粟;盧書芳;翁立波 | 申請(專利權)人: | 浙江工業大學 |
| 主分類號: | G06V10/82 | 分類號: | G06V10/82;G06V20/52;G06V10/774;G06N3/04;G06Q10/04;G06T7/246;G08G1/052 |
| 代理公司: | 杭州浙科專利事務所(普通合伙) 33213 | 代理人: | 周紅芳 |
| 地址: | 310006 浙江省*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 視頻 分析 車輛 測速 方法 | ||
1.一種基于視頻分析的車輛測速方法,其特征在于包括如下步驟:
步驟1:搭建攝像機于道路上方,攝像機安裝高度為Hc,攝像機光心與豎直線夾角為θ,在車輛測速區域標定測速起止線,攝像機近端標線距離為Hc*tanθ,車輛測速區域的長度為l;
步驟2:使用深度卷積神經網絡對車輛測速區域進行車輛目標檢測,判斷車輛是否駛入車輛測速區域;
步驟3:車輛駛入檢測區域后開始進行車輛跟蹤檢測,將檢測到的目標初始化并創建新的跟蹤器,標注每個檢測目標的標識,記錄目標所屬類別C和當前的時間ts,記錄目標車輛的起始中心點(xs,ys)以及包圍框的長寬值(ls,ws);并獲取車輛的實時定位;
步驟4:車輛駛出車輛測速區域,記錄當前的時間te,記錄目標車輛的最終中心點(xe,ye)以及當前包圍框的長寬值(le,we);
步驟5:計算出目標車輛的時間差Δt=te-ts,中心點偏移量Δx=xe-xs,Δy=ye-ys,長度和寬度偏移量分別為Δl=le-ls,Δw=we-ws;
步驟6:使用深度神經網絡擬合車輛位移和車輛速度的非線性函數,具體包括如下步驟:
步驟6.1:深度神經網絡模型的輸入層包含目標車輛所屬的車輛類別、目標車輛駛入和駛出車輛測速區的時間差、駛入測速區時目標車輛的中心點和駛入測速區時中心點偏移量、駛入測速區時目標車輛的長寬以及駛出時的長寬偏移量,使用真實速度的1/1000作為預測的真實值;
步驟6.2:深度神經網絡模型隱含層包含3層神經網絡,分別包含16、8、4個神經節點,每個節點進行批歸一化,使用Sigmoid函數激活得到網絡輸出節點的預測值,使用均方誤差作為損失函數;
其中,n表示訓練批次總數,i表示訓練批次的順序,yi表示訓練批次中第i個數據的真實值,y′i表示訓練批次中第i個數據的預測值,y表示訓練批次數據的真實值,y’表示網絡輸出節點的預測值;
步驟6.3:通過神經網絡的預測值計算車輛速度;
v'=1000×y' (2)
其中,y’表示網絡輸出節點的預測值,v’表示預測的車輛速度。
2.根據權利要求1所述的基于視頻分析的車輛測速方法,其特征在于步驟3中,當車輛駛入檢測區域后開始進行車輛跟蹤檢測,獲取車輛的實時定位,具體包括如下步驟:
步驟3.1:使用深度卷積神經網絡對當前幀中所有目標進行檢測,獲取幀內的所有車輛的目標定位框;
步驟3.2:將每個檢測到的目標初始化并創建新的跟蹤器,標注每個檢測目標的標識,記錄目標所屬類別C和當前的時間ts,記錄目標車輛的起始中心點(xs,ys)及包圍框的長寬值(ls,ws);
步驟3.3:使用卡爾曼濾波器得到前一幀圖像檢測出的目標產生的狀態預測和協方差預測,求跟蹤器所有目標狀態與當前幀檢測的目標框的IOU閾值,通過匈牙利算法,得到IOU閾值最大的唯一匹配,去掉匹配值小于IOU閾值的匹配對;
步驟3.4:用本幀中匹配到的目標檢測框去更新卡爾曼跟蹤器,計算卡爾曼增益,狀態更新和協方差更新,并將狀態更新值輸出作為當前幀的跟蹤框,對于本幀中沒有匹配到的目標重新初始化跟蹤器。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于浙江工業大學,未經浙江工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010626133.5/1.html,轉載請聲明來源鉆瓜專利網。





