[發明專利]基于局部最大值的候選目標檢測方法有效
| 申請號: | 201910237024.1 | 申請日: | 2019-03-27 |
| 公開(公告)號: | CN109977952B | 公開(公告)日: | 2021-10-22 |
| 發明(設計)人: | 楊茂柯;俞昆;楊奎元 | 申請(專利權)人: | 深動科技(北京)有限公司 |
| 主分類號: | G06K9/32 | 分類號: | G06K9/32;G06K9/46;G06K9/62 |
| 代理公司: | 北京律遠專利代理事務所(普通合伙) 11574 | 代理人: | 全成哲 |
| 地址: | 100000 北京市*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 局部 最大值 候選 目標 檢測 方法 | ||
一種基于局部極大值的候選目標檢測方法、設備、裝置及程序產品,該方法包括以下步驟:步驟S1:對輸入的目標圖像進行目標特征圖提取;步驟S2:以提取的目標特征圖作為RPN的輸入,輸出分類響應圖;步驟S3:在分類響應圖上檢測局部極大值點;步驟S4:以局部極大值點對應的錨點產生多個候選框作為潛在存在目標的候選區域。通過使用RPN輸出的分類響應圖中的局部極大值而非全局統一的閾值來產生候選目標區域,可以使用非常少的候選目標區域達到非常高的召回率,從而能夠獲得同時具有高召回率和高準確度的候選區域。
所屬技術領域
本發明涉及圖像處理領域,特別是涉及圖像中的目標檢測方法。
背景技術
圖像提取過程中,在進行目標物體檢測時,一種常用的做法是首先進行候選目標區域檢測,粗略找出圖像中潛在存在目標的區域,然后再將逐個區域的特征輸入到分類和回歸網絡中,預測候選區域的類別,以及精細地調整檢測框的位置。在該過程中,第一階段的候選目標區域檢測相當重要,該階段輸出的候選目標區域是第二個階段分類和回歸的基礎。通常來說,該階段的檢測不僅需要保證很高的召回率,同時還需要比較高的精確度。
現有的基于深度學習的候選目標區域檢測方法中,為了保證高召回率,對于RPN(Region Proposal Network,候選區域檢測網絡)輸出的響應圖都是直接使用一個很低的閾值取出幾千上萬個候選框,然后再輸入到第二個階段進行分類和回歸。這樣的方式可以保證很高的召回率,但是代價是同時會輸出更多不正確的候選框。這些錯誤的候選框會在模型訓練的時候給第二個階段的分類和回歸帶來很大的困擾,同時也會在模型用于預測的時候降低預測的速度。
圖1和圖2具體展示了現有技術的缺陷,如圖1所示,使用現有技術提取候選框時,當使用的閾值較高(例如0.5)時,雖然可以得到精確的候選區域,但是同時也會丟失大量目標,造成低召回率的現象。而在圖2中,當使用較低閾值(例如0.05)時,雖然可以保證高召回率,但是同時也會帶來大量不正確的候選目標區域,為第二個階段的分類和回歸帶來困擾,同時也會在模型用于預測的時候降低預測的速度。
發明內容
本發明主要目的在于解決候選區域檢測過程中,高召回率和高精確度不能兼得的矛盾。本發明提出根據RPN(Region Proposal Network,候選區域檢測網絡)輸出的分類響應圖上的局部極大值來提取候選目標區域,而非現有技術采用的使用統一的全局閾值提取候選目標區域。因為RPN分類響應圖上的局部極大值通常都能夠很好的對應上某些具體目標,同時局部極大值點的數量相對使用全局閾值可以大大減少,使得該方法可以得到同時滿足高召回率和高準確度的候選區域檢測結果。相對于現有技術的方法通常會產生幾千上萬個候選框,本發明提出的方法通常只會產生幾十上百個候選框,得到非常精確的候選區域檢測結果。
本發明的目的在于提供一種基于局部最大值的候選目標檢測方法,具體技術方案如下:
第一方面,本發明實施例提供了一種基于局部最大值的候選目標檢測方法,該方法至少包括:
步驟S1:對輸入的目標圖像進行目標特征圖提取;
步驟S2:以提取的目標特征圖作為RPN的輸入,輸出分類響應圖;
步驟S3:在分類響應圖上檢測局部極大值點;
步驟S4:以局部極大值點對應的錨點產生多個候選框作為潛在存在目標的候選區域。
第二方面,本發明實施例提供了一種基于局部最大值的候選目標檢測設備,包括:
提取裝置,用于對輸入的目標圖像進行目標特征圖提取;
分類響應圖輸出裝置,用于以提取的目標特征圖作為RPN的輸入,輸出分類響應圖;
局部極大值點獲取裝置,用于在分類響應圖上檢測局部極大值點;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深動科技(北京)有限公司,未經深動科技(北京)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910237024.1/2.html,轉載請聲明來源鉆瓜專利網。





