[發明專利]一種基于噪聲可知的全網絡監督目標檢測方法有效
| 申請號: | 202010300928.7 | 申請日: | 2020-04-16 |
| 公開(公告)號: | CN111523586B | 公開(公告)日: | 2022-09-06 |
| 發明(設計)人: | 紀榮嶸;沈云航 | 申請(專利權)人: | 廈門大學 |
| 主分類號: | G06V10/764 | 分類號: | G06V10/764;G06V10/82;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 廈門市新華專利商標代理有限公司 35203 | 代理人: | 羅恒蘭 |
| 地址: | 361000 福建*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 噪聲 可知 網絡 監督 目標 檢測 方法 | ||
本發涉及一種基于噪聲可知的全網絡監督目標檢測方法,其明通過構建包含主干卷積神經網絡、候選區域池化層、弱監督檢測頭部網絡和殘差檢測頭部網絡的網絡模型,使其形成雙分支網絡結構;并且通過空間敏感熵標準來估算網絡圖片標簽的置信度,然后根據估算的置信度來使用不同分支來訓練模型,從而有效分解噪聲,提高目標檢測的準確率,而且對于包含錯誤前景標簽的圖片訓練集,本發明的包混淆策略也能夠減低出現前景噪聲標簽的概率,從而降低訓練數據的標注成本,提高了數據的利用率。
技術領域
本發明涉及計算機視覺技術領域,具體涉及一種基于噪聲可知的全網絡監督目標檢測方法。
背景技術
目標檢測的任務是找出圖像或視頻中的感興趣物體,同時檢測出它們的位置和大小,是機器視覺領域的核心問題之一。物體檢測過程中有很多不確定因素,如圖像中物體數量不確定,物體有不同的外觀、形狀、姿態,加之物體成像時會有光照、遮擋等因素的干擾,導致檢測算法有一定的難度。近些年隨著深度學習技術的火熱發展,目標檢測算法也從基于手工特征的傳統算法轉向了基于深度神經網絡的檢測技術。從最初的R-CNN、OverFeat,到Fast/Faster R-CNN,SSD,YOLO系列,再到最近的PeleeNet和ThunderNet。基于深度學習的目標檢測技術,在網絡結構上,從Two Stage到One Stage模型,從Bottom-up到Top-Down模型,從Single Scale Network到Feature Pyramid Network,從面向服務器端到面向手機端,都涌現出許多好的算法技術,這些算法在開放目標檢測數據集上的檢測效果和性能都很出色。
在深度學習時代,強監督的深度學習模型在視覺場景理解中雖然擁有很好的效果,但依賴于大量的標準數據,然而數據本身的標注成本是極高的。比如在PASCAL VOC數據集中,需要十余名工人來標注27374個邊界框,而對于ImageNet甚至需要25000名人員對上千萬張數據進行標注。精確的目標級標注需要較為昂貴的人力成本,并且訓練準確的目標檢測模型需要巨大的數據量。如何利用低成本的圖像標注取得良好的檢測結果成為了當下研究的熱點,因此研究者開始研究基于弱監督學習的目標檢測算法。同時,我們可以從互聯網輕松獲取海量粗標注的圖片,如利用Flickr的標簽。因此,研究如何使用網絡數據,即僅提供帶噪聲圖片類別標注,訓練目標檢測模型,具有重要的意義。
網絡獲取的數據集里的標簽通常不會都是正確的,比如Flickr的標簽,如果有人錯誤地把貓標記成狗,將會對訓練結果造成不良的影響。如何提高檢測算法對標簽噪聲的魯棒性,提升檢測器在噪聲環境下的性能,減少因標簽噪聲對檢測器所帶來的負面影響,最大化發揮海量數據的價值。
發明內容
針對現有技術存在的問題,本發明的目的在于提供一種基于噪聲可知的全網絡監督目標檢測方法,其可以提高目標檢測的準確率。
為實現上述目的,本發明采用的技術方案是:
一種基于噪聲可知的全網絡監督目標檢測方法,其包括
步驟1、構建全網絡監督目標檢測的網絡模型;
所述網絡模型包括主干卷積神經網絡、候選區域池化層、弱監督檢測頭部網絡和殘差檢測頭部網絡;所述主干卷積神經網絡的輸出端連接候選區域池化層的輸入端;所述候選區域池化層的輸出端連接弱監督檢測頭部網絡和殘差檢測頭部網絡;
步驟2、網絡模型訓練;
步驟2.1、初始化主干卷積神經網絡;
步驟2.2、給定類別,從圖像分享網站上抓取圖像數據作為圖像訓練集;
步驟2.3、從圖像訓練集中隨機采樣兩張類別標簽一樣的訓練圖像;
步驟2.4、把訓練圖像輸入模型,經主干卷積神經網絡和候選區域池化層后獲得候選區域特征圖;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廈門大學,未經廈門大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010300928.7/2.html,轉載請聲明來源鉆瓜專利網。





