[發明專利]基于深度融合修正網絡的精細邊緣檢測方法、裝置在審
| 申請號: | 201710666537.5 | 申請日: | 2017-08-07 |
| 公開(公告)號: | CN107610140A | 公開(公告)日: | 2018-01-19 |
| 發明(設計)人: | 黃凱奇;趙鑫;王裕沛 | 申請(專利權)人: | 中國科學院自動化研究所 |
| 主分類號: | G06T7/13 | 分類號: | G06T7/13;G06N3/04;G06N3/08;G06K9/62 |
| 代理公司: | 北京瀚仁知識產權代理事務所(普通合伙)11482 | 代理人: | 郭文浩,王世超 |
| 地址: | 100080 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 融合 修正 網絡 精細 邊緣 檢測 方法 裝置 | ||
技術領域
本發明涉及模式識別、計算機視覺、深度學習領域,特別涉及一種基于深度融合修正網絡的精細邊緣檢測方法、裝置。
背景技術
得益于深度卷積神經網絡,計算機視覺、人工智能、機器感知等領域迅猛發展。邊緣檢測作為計算機視覺中一個基本問題,也得到了長足的發展。邊緣檢測就是利用計算機對圖像進行分析,進而得到圖像中物體的邊緣信息。邊緣檢測經常作為工具,輔助其他視覺任務。傳統的邊緣檢測方法一般依靠人工設計特征,很容易受到光線變化、物體顏色變化以及背景嘈雜的干擾,在實際運用中很不魯棒,精度也很難到用戶需求。基于深度卷積神經網絡的邊緣檢測方法一定程度上克服了上述缺陷,提供了魯棒性更好的邊緣檢測器。
雖然深度卷積神經網絡在邊緣檢測上取得了成功,甚至一些高水平的方法在特定數據集上達到了人工對圖像檢測邊緣的水平,但其檢測的邊緣不夠精細,十分粗糙,在可視化效果上,和人工提取的邊緣仍有較大差距。另一方面,現有基于深度卷積神經網絡的邊緣檢測方法對圖像中物體邊緣的定位不夠準確,無法得到精細且定位準確的邊緣檢測結果。因此,本發明從檢測更精細的邊緣入手,充分利用圖像多尺度特征,提出一種基于深度融合修正網絡的精細邊緣檢測方法,該方法通過反向修正部分網絡,在逐漸融合前向傳播部分網絡的包含不同抽象層次的多尺度特征的同時,逐漸增大特征的分辨率,最終獲得和輸入圖像具有相同分辨率的特征表達。這樣可以很好地彌補現有的手工設計特征方法和僅包含前向傳播部分網絡的基于深度卷積神經網絡的邊緣檢測方法的不足,得到一種更加魯棒、包含豐富細節信息的特征表達,產生的邊緣更為精細。
發明內容
為了解決現有技術中的上述問題,即為了解決圖像中邊緣定位不夠準確、檢測的邊緣不夠精細的問題,本發明的一方面,提出了一種基于深度融合修正網絡的精細邊緣檢測方法,包括以下步驟:
步驟S1,通過卷積神經網絡的前向傳播部分網絡,獲取輸入圖像的多尺度特征;
步驟S2,通過卷積神經網絡的反向修正部分網絡,采取逐漸增大特征分辨率的方法獲取和輸入圖像具有相同分辨率的最終圖像特征;所述逐漸增大特征分辨率的方法為:融合所述輸入圖像的多尺度特征的同時,通過子像素卷積的方法增大特征的分辨率;
步驟S3,將最終圖像特征的特征通道降維為單通道,通過擬合函數生成邊緣檢測結果。
優選地,步驟S1所述輸入圖像的多尺度特征,為不同深度的卷積層得到的不同尺度下的圖像特征所組成的特征金字塔。
優選地,步驟S2中“采取逐漸增大特征分辨率的方法獲取和輸入圖像具有相同分辨率的最終圖像特征”,其方法為:
對所述特征金字塔中的所有特征,自頂向下的選取相鄰特征,重復步驟S21和步驟S22,直至得到第一層特征的融合特征F′1;
其中,
步驟S21,給定特征Fn和Fn-1,將尺度較小的特征Fn,通過子像素卷積的方法增大分辨率得到特征Fαn,特征Fαn的尺度與Fn-1一致;其中特征Fn為多尺度特征中第n層的圖像特征;
步驟S22:通過卷積、拼接操作將特征Fαn和Fn-1進行融合,產生第n-1層的融合特征Fβn-1,并將所述特征金字塔中第n-1層的特征替換為Fβn-1。
優選地,步驟S22中“通過卷積、拼接操作將特征Fαn和Fn-1進行融合”,其方法包括:
步驟S221,通過卷積操作,將Fαn和Fn-1進行降維,拉近特征通道數,得到特征表達F′αn和F′n-1,大小分別為wn-1×hn-1×d′αn和wn-1×hn-1×d′n-1;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國科學院自動化研究所,未經中國科學院自動化研究所許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710666537.5/2.html,轉載請聲明來源鉆瓜專利網。





