[發明專利]特征映射復用編解碼器架構網絡及快速分割方法有效
| 申請號: | 201911065906.0 | 申請日: | 2019-11-04 |
| 公開(公告)號: | CN110796205B | 公開(公告)日: | 2023-03-24 |
| 發明(設計)人: | 劉桂雄;黃堅 | 申請(專利權)人: | 華南理工大學 |
| 主分類號: | G06V10/26 | 分類號: | G06V10/26;G06V10/774;G06V10/82;G06N3/0464 |
| 代理公司: | 北京天奇智新知識產權代理有限公司 11340 | 代理人: | 陳新勝 |
| 地址: | 510640 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 特征 映射 編解碼器 架構 網絡 快速 分割 方法 | ||
本發明公開了一種特征映射復用編解碼器架構網絡及快速分割方法,該方法包括構建兩路語義分割網絡、確定可共用關鍵層結構以及逐個合并可共用關鍵層結構,得到特征映射復用編?解碼器架構網絡優化結構;本發明在重點考慮網絡語義分割準確度?特征復用程度出發下,提出基于特征映射復用的快速復雜背景語義分割技術,基于相同特征圖,完成不同視覺任務,即實現特征映射復用;通過改變共用層結構數量nshare,得到綜合優化像素預測準確率PAA(nshare)、像素預測準確率PAB(nshare)、語義分割時間Tseg(nshare)指標的網絡結構。在部件/零件的無漏檢/無誤判前提下,共用層結構可有效縮短分割時間。
技術領域
本發明涉及圖像分割技術領域,尤其涉及深度學習的快速復雜背景圖像語義分割。
背景技術
越來越多的應用場景需要精確且高效的圖像分割技術,如自動駕駛、室內導航、甚至虛擬現實與增強現實等。這個需求與視覺相關的各個領域及應用場景下的深度學習技術的發展相符合,尤其是基于深度學習的語義分割技術。語義分割網絡中,多孔卷積架構語義分割網絡移除主干網絡部分池化層空間分辨率較強,主干網絡與ASPP模塊的約簡優化是值得深入研究內容,可以在輕量化語義分割CNN識別應用;編-解碼器架構語義分割網絡保留更多分類網絡中的組件,可用于實現復雜背景下的特征提??;全卷積網絡FCN不改變主干網絡的卷積層、池化層結構,可同時實現目標檢測、語義分割,降低計算復雜度與數據存儲。
發明內容
為解決上述技術問題,本發明的目的是提供一種特征映射復用編-解碼器架構網絡,可基于相同特征圖,完成不同視覺任務,即實現特征映射復用,有效縮短分割時間。
本發明的目的通過以下的技術方案來實現:
特征映射復用編解碼器架構網絡及快速分割方法,該方法包括構建兩路語義分割網絡、確定可共用關鍵層結構及逐個合并可共用關鍵層結構,得到特征映射復用編-解碼器架構網絡優化結構;具體包括以下步驟:
A訓練兩路語義分割網絡達到機器視覺應用需求,設兩路語義分割網絡為網絡A與網絡B,并設網絡A與網絡B像素準確率分別為PAA、PAB,以及總分割時間為Tseg;
B分析主干網絡可共用關鍵層結構,主干網絡ηmain關鍵層結構使特征圖分辨率降低即降采樣或特征圖數量增加即維數增加;
C分析密集預測網絡可共用關鍵層結構,密集預測網絡ηseg關鍵層結構使特征圖分辨率增大即升采樣或特征圖數量變化即維數變化;
D逐個合并可共用關鍵層結構,重新訓練不同共用層結構數量nshare的兩路語義分割網絡,得到PAA(nshare)、PAB(nshare)、Tseg(nshare);
E根據PAA(nshare)、PAB(nshare)、Tseg(nshare)綜合得到最優共用層結構數量nshare,并定為特征映射復用編-解碼器架構網絡優化結構,實現快速復雜背景語義分割應用。
與現有技術相比,本發明的一個或多個實施例可以具有如下優點:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華南理工大學,未經華南理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201911065906.0/2.html,轉載請聲明來源鉆瓜專利網。





