[發(fā)明專利]基于定位和視覺技術(shù)融合的車道級定位方法及系統(tǒng)有效
| 申請?zhí)枺?/td> | 202110561824.6 | 申請日: | 2021-05-23 |
| 公開(公告)號: | CN113378654B | 公開(公告)日: | 2022-08-16 |
| 發(fā)明(設(shè)計)人: | 周竹萍;唐旭;劉博聞;于雙志;欒泊蓉 | 申請(專利權(quán))人: | 南京理工大學(xué) |
| 主分類號: | G06V20/58 | 分類號: | G06V20/58;G06V10/764;G06V10/80;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 南京理工大學(xué)專利中心 32203 | 代理人: | 陳鵬 |
| 地址: | 210094 *** | 國省代碼: | 江蘇;32 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 定位 視覺 技術(shù) 融合 車道 方法 系統(tǒng) | ||
本發(fā)明公開了一種基于定位和視覺技術(shù)融合的車道級定位方法及系統(tǒng),該方法通過將高精度定位設(shè)備獲取的車輛中心點與最右車道線的真實距離和視頻設(shè)備獲取的車輛中心點與圖像中最右車道線的像素距離作為數(shù)據(jù)融合的輸入值,采用樸素貝葉斯和D?S證據(jù)理論結(jié)合的數(shù)據(jù)融合方法輸出當(dāng)前車輛所在車道判別結(jié)果,避免了傳統(tǒng)單一設(shè)備車道級定位工作時受到的外部環(huán)境干擾,提升了車道級定位的魯棒性和準確性。本發(fā)明利用高精度定位設(shè)備將北斗衛(wèi)星坐標精度提升至厘米級并結(jié)合視頻設(shè)備,融合定位與視覺技術(shù),實現(xiàn)精準且高魯棒性的車道級定位。
技術(shù)領(lǐng)域
本發(fā)明涉及北斗定位與圖像處理分析領(lǐng)域,具體涉及一種基于定位和視覺技術(shù)融合的車道級定位方法及系統(tǒng)。
背景技術(shù)
隨著我國公路建設(shè)取得了令世界矚目的成績,其中高速公路總里程已經(jīng)位于世界第一位。與此同時,我國公路交通事故問題卻日益嚴重。公路具有車速高、封閉性強、車型復(fù)雜等特點,致使公路交通事故傷亡與財產(chǎn)損失相比于城市道路更為嚴重。為應(yīng)對我國公路交通安全的嚴峻形勢,須深入研究車輛運行特征與規(guī)律,提高車道級定位的準確度和魯棒性,并應(yīng)用于工程實踐,不斷提升公路交通安全管理水平,增強事故預(yù)防與處置能力。
長期以來,傳統(tǒng)的單一設(shè)備車道級定位方法容易受到外部環(huán)境干擾,如定位設(shè)備會受到隧道的影響,視頻設(shè)備會受限于天氣的狀況,均無法應(yīng)付復(fù)雜的路況。如現(xiàn)有車載視頻設(shè)備通過識別車輛前方左右車道線數(shù)目從而實現(xiàn)車道級定位,但該方法在雨、雪、大霧天氣、光線暗等情況下均有可能因視線模糊而造成誤判,車道級定位效果較差。
發(fā)明內(nèi)容
本發(fā)明目的在于提供一種基于定位和視覺技術(shù)融合的車道級定位方法及系統(tǒng),可避免傳統(tǒng)車道級定位方法在單一設(shè)備工作時狀態(tài)不穩(wěn)定而誤判的情況,增強了系統(tǒng)的魯棒性,提供一種高可靠性和準確性的車道級定位結(jié)果。
實現(xiàn)本發(fā)明目的的技術(shù)解決方案如下:
一種基于定位和視覺技術(shù)融合的車道級定位方法,包括:
定位設(shè)備采集行車軌跡經(jīng)緯度數(shù)據(jù)并進行數(shù)據(jù)預(yù)處理;
車載攝像頭采集前方道路圖像數(shù)據(jù),并檢測圖像數(shù)據(jù)中最右車道線;
計算車輛中心點與最右車道線的真實距離和視頻設(shè)備獲取的車輛中心點與圖像中最右車道線的像素距離;
將車輛中心點與最右車道線的真實距離、視頻設(shè)備獲取的車輛中心點與圖像中最右車道線的像素距離作為數(shù)據(jù)融合的輸入值,使用樸素貝葉斯和D-S證據(jù)理論數(shù)據(jù)融合方法輸出最終所在車道判別結(jié)果。
本發(fā)明還一種基于定位和視覺技術(shù)融合的車道級定位系統(tǒng),包括:
定位設(shè)備,采集行車軌跡經(jīng)緯度數(shù)據(jù)并進行數(shù)據(jù)預(yù)處理;
車載攝像頭,采集前方道路圖像數(shù)據(jù),并檢測圖像數(shù)據(jù)中最右車道線;
處理模塊,計算車輛中心點與最右車道線的真實距離和視頻設(shè)備獲取的車輛中心點與圖像中最右車道線的像素距離;
將車輛中心點與最右車道線的真實距離、視頻設(shè)備獲取的車輛中心點與圖像中最右車道線的像素距離作為數(shù)據(jù)融合的輸入值,使用樸素貝葉斯和D-S證據(jù)理論數(shù)據(jù)融合方法輸出最終所在車道判別結(jié)果。
本發(fā)明與現(xiàn)有技術(shù)相比,其顯著優(yōu)點為:
(1)MaskRcnn深度學(xué)習(xí)網(wǎng)絡(luò),該網(wǎng)絡(luò)實時性強且準確度高,不僅能處理物體檢測問題,還能處理語義分割問題;
(2)采用樸素貝葉斯和D-S證據(jù)理論結(jié)合的方法,它是一種多時空數(shù)據(jù)融合方法,采用樸素貝葉斯分類器輸出概率分配值BPA,并運用D-S證據(jù)理論實現(xiàn)了對多時空數(shù)據(jù)進行融合,在處理多時刻、多設(shè)備的數(shù)據(jù)挖掘融合上相比其他機器學(xué)習(xí)算法表現(xiàn)出明顯的優(yōu)勢;
(3)本發(fā)明可避免復(fù)雜環(huán)境下車道級定位設(shè)備單一工作狀態(tài)不穩(wěn)定,輸出高魯棒性和精準的車道級定位結(jié)果;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于南京理工大學(xué),未經(jīng)南京理工大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110561824.6/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





