[發明專利]一種半監督的顯著對象檢測方法有效
| 申請號: | 201710702593.X | 申請日: | 2017-08-16 |
| 公開(公告)號: | CN107506792B | 公開(公告)日: | 2020-09-29 |
| 發明(設計)人: | 崔靜;譚凱;王嘉欣 | 申請(專利權)人: | 廣西荷福智能科技有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 成都華風專利事務所(普通合伙) 51223 | 代理人: | 徐豐;張巨箭 |
| 地址: | 530000 廣西壯族自治區南寧市高新區*** | 國省代碼: | 廣西;45 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 監督 顯著 對象 檢測 方法 | ||
本發明公開了一種半監督的顯著對象檢測方法,基于改進的faster rcnn的RPN網絡模型,方法包括:S1:對圖片中對象框進行初始分割,作為對象的初始ground truth;S2:設置網絡;S3:訓練網絡;S4:對訓練圖片進行顯著對象預測;S5:對訓練圖片進行超像素分割及超像素級的平滑,并進行二值化操作;S6:利用步驟S5得到的二值化的對象前景譜作為ground truth;S7:重復步驟S3~S6。本發明提出了包含顯著預測模塊與對象檢測模塊的聯合網絡,將顯著預測模塊的輸出與分類模塊的中間特征層進行融合,進行聯合優化。這種網絡結構有效地利用了對象的輪廓信息,輔助網絡更加準確地檢測出顯著對象。
技術領域
本發明涉及顯著對象檢測的卷積神經網絡領域,尤其涉及一種半監督的顯著對象檢測方法。
背景技術
人類有從圖片中感知感興趣對象的能力。在計算機視覺領域,這種感興趣的對象被稱作顯著對象。計算機模仿人的這種能力,從圖片中檢測出顯著對象被稱作顯著對象檢測。顯著對象檢測已經成為一個熱門的領域,因為它可以輔助其它圖像處理任務,具有廣泛的應用,其應用領域包括對象檢測、對象分割、場景理解、圖像分類和檢索等。
在計算機視覺領域,有許多顯著對象檢測方法。這些方法可以分為兩類:一類是無監督的顯著對象檢測方法,另一類是有監督的顯著對象檢測方法。傳統的無監督顯著對象檢測方法通常是基于圖像的顏色、亮度、紋理等特征,利用局部對比度、全局對比度或者圖像邊緣的背景信息來檢測顯著對象。這些方法在設計上通?;陲@著對象在圖像中的分布假設,并不能很好地適應顯著對象的多樣性。例如基于局部對比度的方法不能很好地檢測出與圖片背景差異小的對象,基于圖片邊緣背景信息的方法不能較好地檢測出位于圖像邊緣的顯著對象。另外,對于場景復雜的圖像,無監督方法可能無法準確檢測出顯著對象,效果不夠理想。
相比于無監督方法,有監督的方法,如svm、random tree、DNN等,利用標注的圖片訓練模型并將訓練好的模型用于顯著對象檢測。這些方法展現出了更好的性能。尤其是基于深度神經網絡(DNN)的方法,由于深度神經網絡在大規模數據上展現出的性能優勢,基于深度神經網絡的顯著對象檢測方法進一步提升了顯著對象檢測的性能。然而,現有基于深度神經網絡的顯著對象檢測方法是全監督的訓練模式,這些方法的性能在很大程度上取決于訓練數據的規模。訓練圖片數量過少容易使網絡過擬合,導致較差的檢測性能;而要達到理想的檢測效果,需要幾萬甚至上百萬的訓練數據。與此同時,每一張訓練圖片都需要人工進行像素級標注,標注過程單調乏味且耗時耗力。因此,要收集理想規模的訓練數據,是一件需要消耗大量人力和時間的工作。
發明內容
本發明的目的在于克服現有技術的不足,提供一種半監督的顯著對象檢測方法,解決現有技術采用全監督的訓練模式工作量大的問題。
本發明的目的是通過以下技術方案來實現的:一種半監督的顯著對象檢測方法,基于改進的faster rcnn的RPN網絡模型,所述的RPN網絡模型包括對象檢測模塊和顯著預測模塊;所述的對象檢測模塊和顯著預測模塊的輸入端共享一個共享卷積層;
所述的顯著預測模塊包括一個第一卷積層、一個sigmoid層和三個轉置卷積層,共享卷積層的輸出端經過第一卷積層輸出特征譜,所述的特征譜經過sigmoid層得到一張初始顯著預測譜s,所述的初始顯著預測譜s經過三個轉置卷積層的上采樣后輸出一張顯著預測譜sal;在訓練階段,所述的顯著預測模塊還包括一個在轉置卷積層之后的Euclidean損失層;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣西荷福智能科技有限公司,未經廣西荷福智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710702593.X/2.html,轉載請聲明來源鉆瓜專利網。





