[發明專利]一種基于視覺系統的雙車道線檢測方法有效
| 申請號: | 201811055117.4 | 申請日: | 2018-09-11 |
| 公開(公告)號: | CN109242776B | 公開(公告)日: | 2023-04-07 |
| 發明(設計)人: | 杜躍通;顧曉東;黃可欣;王士昭 | 申請(專利權)人: | 江蘇君英天達人工智能研究院有限公司 |
| 主分類號: | G06T3/40 | 分類號: | G06T3/40;G06V20/56;G06V10/46 |
| 代理公司: | 南京鐘山專利代理有限公司 32252 | 代理人: | 戴朝榮 |
| 地址: | 210000 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 視覺 系統 車道 檢測 方法 | ||
本發明公開了一種基于視覺系統的雙車道線檢測方法,對于訓練結構,將車道線的已標記關鍵點進行多點插值處理得到恰當密度的關鍵點數;對圖片在三通道的基礎上加入位置通道;對圖片用7層3?x?3或1?x?1的卷積核和/或池化操作進行壓縮和特征提取;對特征進行上采樣和多尺度預測;通過卷積運算輸出n?x?1?x?1?x?2的張量特征;通過三次樣條插值算法將點坐標擬合為兩條曲線,得到雙車道線。本發明圖片的語義解析能力高,并且特征提取充分,結果準確度高。
技術領域
本發明涉及一種雙車道線檢測方法,特別是一種基于視覺系統的雙車道線檢測方法。
背景技術
目前現有的車道線檢測方法采用的有基于特征提取的方法(Roberts算子,Sobel算子、Prewitt算子、Krisch邊緣算子,高斯-拉普拉斯算子)和基于神經網絡模型的方法(Baseline,ReNet,DenseCRF,MRFNet,ResNet-50,ResNet-101,SCNN)。其中基于特征提取的方法由于邊緣連續性?,邊緣光滑性,邊緣細化程度,邊緣的定位,抗噪性等方面的天然劣勢,尤其在抗噪性方面的巨大劣勢制約著自動駕駛視覺系統的可靠性。而基于神經網絡模型的方法雖然在一定程度上緩解了上述問題,但其方法大多是GPU級的,不能滿足工程上的實時性,檢測精度不夠高,圖片語義信息的解析能力較差。總的來說,現有車道線檢測方法存在如下缺陷:
(1)檢測準確度還有待提高:現有方法在檢測車道線時,尤其在在包括交通擁擠,夜晚,車輛大轉彎,車道線不連續,陰影較多,數據部分缺失等復雜場景下檢測準確度會大幅降低。
(2)檢測速度較低:現有方法檢測速度大都在gpu級別,在自動駕駛領域,gpu級別的檢測方法顯然滿足不了實時檢測的要求,對于車道線檢測的工程化要求至少要在CPU級別能夠每秒檢測多張圖片,這樣在出現特殊情況時車輛才能做出迅速反應。
(3)對圖片語義信息的解析能力較差:基于特征提取的方法在抗噪性等方面有著天然劣勢。基于神經網絡模型的方法雖然在一定程度上緩解了上述問題,但在無人駕駛領域,我們認為車輛只需要關注車輛左右的兩條車道即可,對于其他車道的過分關注增加了車輛需要處理的信息,占用了較多計算資源。現有方法由于對圖片語義信息的解析能力較差而更多的通過圖片外部特征處理,得到除左右車道線外的其他無用車道線。
發明內容
本發明所要解決的技術問題是提供一種基于視覺系統的雙車道線檢測方法,提高語義解析能力。
為解決上述技術問題,本發明所采用的技術方案是:
一種基于視覺系統的雙車道線檢測方法,其特征在于包含以下步驟:
步驟一:對于訓練結構,將車道線的已標記關鍵點進行多點插值處理得到恰當密度的關鍵點數;
步驟二:對圖片通道進行處理,在三通道的基礎上加入位置通道變為四通道,位置通道內的元素數值即為圖像對應的像素點位置除以像素總數;
步驟三:對圖片用7層3?x?3或1?x?1的卷積核和/或池化操作進行壓縮和特征提取,圖片通過卷積運算后輸出的張量即為提取出的特征;
步驟四:對特征進行上采樣和多尺度預測;
步驟五:通過卷積運算輸出?n?x?1?x?1?x?2的張量特征,所得到n個點即為左右車道線的部分點坐標;
步驟六:通過三次樣條插值算法將點坐標擬合為兩條曲線,得到雙車道線。
進一步地,所述步驟二具體為,在原圖片的三色通道的基礎上加入位置通道。
進一步地,所述步驟四中采用雙線性插值算法對特征進行上采樣。
進一步地,所述步驟四中多尺度預測對第八層和第十四層同時進行預測。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于江蘇君英天達人工智能研究院有限公司,未經江蘇君英天達人工智能研究院有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811055117.4/2.html,轉載請聲明來源鉆瓜專利網。





