[發明專利]聯合行道線幾何先驗的高速公路霧天能見度檢測方法有效
| 申請號: | 202210508579.7 | 申請日: | 2022-05-11 |
| 公開(公告)號: | CN114627382B | 公開(公告)日: | 2022-07-22 |
| 發明(設計)人: | 孫玉寶;唐繼輝;劉青山;閆宏艷 | 申請(專利權)人: | 南京信息工程大學 |
| 主分類號: | G06V20/10 | 分類號: | G06V20/10;G06V20/52;G06V20/58;G06V10/774;G06V10/764;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京經緯專利商標代理有限公司 32200 | 代理人: | 羅運紅 |
| 地址: | 210032 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 聯合 行道 幾何 先驗 高速公路 能見度 檢測 方法 | ||
本申請涉及一種聯合行道線幾何先驗的高速公路霧天能見度檢測方法。該方法包括:實時獲取高速公路上的攝像頭拍攝的高速公路霧天情況的圖像數據;將高速公路霧天情況的圖像數據輸入到訓練好的雙分支分類網絡模型的行道線檢測分支和深度神經網絡視覺特征提取分支,對應輸出行道線檢測標簽和道路區域的視覺特征;訓練好的雙分支分類網絡模型的融合分類模塊根據行道線檢測標簽計算高速公路可見區域的長度特征,并融合道路區域的視覺特征進行分類,確定攝像頭拍攝的高速公路對應的霧天能見度等級,聯合行道線長度特征進行分類,分類準確度高,從而提高了高速公路霧天能見度檢測的準確率。
技術領域
本申請涉及圖像處理技術領域,特別是涉及一種聯合行道線幾何先驗的高速公路霧天能見度檢測方法。
背景技術
高速公路霧天能見度檢測對于交通預警、安全行車具有重要意義。目前,對霧天圖像可見度預測問題的關注較少,解決這一問題的方法很少,大致可以分為兩類:基于物理模型的方法和基于深度學習的方法。基于物理模型的方法主要是基于Koschmieder定律和大氣散射模型來設計預測規則。基于深度學習的方法主要是利用深度網絡直接學習霧圖像到霧密度的映射。雖然深度網絡具有很好的學習能力,但它們的預測主要依賴該黑盒模式下所學習的視覺特征,然而由于不同監控設備的不同成像時段以及光照條件影響等因素影響導致視覺特征具有廣泛的差異性,僅僅依賴視覺特征往往并不能形成好的預測結果,因此,目前的高速公路霧天能見度檢測的準確率較低。
發明內容
基于此,有必要針對上述技術問題,提供一種能夠提高高速公路霧天能見度檢測的準確率的聯合行道線幾何先驗的高速公路霧天能見度檢測方法。
一種聯合行道線幾何先驗的高速公路霧天能見度檢測方法,所述方法包括:
實時獲取高速公路上的攝像頭拍攝的高速公路霧天情況的圖像數據;
將所述高速公路霧天情況的圖像數據輸入到訓練好的雙分支分類網絡模型的行道線檢測分支和深度神經網絡視覺特征提取分支,對應輸出行道線檢測標簽和道路區域的視覺特征;
所述訓練好的雙分支分類網絡模型的融合分類模塊根據所述行道線檢測標簽計算高速公路可見區域的長度特征,并融合所述道路區域的視覺特征進行分類,確定所述攝像頭拍攝的高速公路對應的霧天能見度等級;
所述雙分支分類網絡模型的訓練方式為:
獲取不同時段、不同角度攝像頭下的高速公路霧天情況監控圖像集;
根據能見度距離將所述高速公路霧天情況監控圖像集中的圖像數據分為4個能見度等級,并將每個能見度等級中的圖像數據按照預設比例劃分出訓練集和測試集;
構建結合行道線檢測算法的雙分支分類網絡模型,所述雙分支分類網絡模型包括行道線檢測分支、深度神經網絡視覺特征提取分支以及融合分類模塊;
采用損失函數優化所述雙分支分類網絡模型;
預設所述雙分支網絡模型的訓練超參數,并導入行道線檢測分支預先訓練好的權重參數;
將所述訓練集中的圖像數據輸入所述雙分支分類網絡模型中,根據損失函數,采用Adam優化器實現所述深度神經網絡視覺特征提取分支的權重參數的迭代優化與更新,直至雙分支分類網絡模型收斂,獲得初步雙分支分類網絡模型;
將所述測試集中的圖像數據輸入所述初步雙分支分類網絡模型中進行測試,確定所述初步雙分支分類網絡模型的精度,當精度達到預設值時,獲得訓練好的雙分支分類網絡模型。
在其中一個實施例中,所述行道線檢測分支包括resnet18、第一全連接層和第二全連接層;
圖像數據輸入resnet18進行行道線深度視覺特征提取,獲得行道線深度視覺特征;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京信息工程大學,未經南京信息工程大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210508579.7/2.html,轉載請聲明來源鉆瓜專利網。





