[發明專利]一種密集型目標檢測計量方法有效
| 申請號: | 202010085239.9 | 申請日: | 2020-02-10 |
| 公開(公告)號: | CN111339839B | 公開(公告)日: | 2023-10-03 |
| 發明(設計)人: | 孫永海;盧炬康;周敏儀 | 申請(專利權)人: | 廣州眾聚智能科技有限公司 |
| 主分類號: | G06V20/10 | 分類號: | G06V20/10;G06V10/25;G06V10/764;G06V10/82;G06N3/0464;G06N3/08 |
| 代理公司: | 成都頂峰專利事務所(普通合伙) 51224 | 代理人: | 曾凱 |
| 地址: | 510000 廣東省廣州市黃埔區(高新技術產業開發區)*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 密集型 目標 檢測 計量 方法 | ||
本發明涉及圖像識別技術領域,其目的在于提供一種密集型目標檢測計量方法。本發明包括以下步驟:將待檢測的原始圖像輸入密集型目標檢測模型;密集型目標檢測模型對原始圖像中的目標區域進行定位,然后輸出目標區域的邊界框;根據目標區域的邊界框,對原始圖像進行剪裁,得到目標圖像及目標圖像的定位信息,并將目標圖像輸入分類模型;分類模型對目標圖像進行圖像分類,得到目標圖像的類別信息;將目標圖像的定位信息及其類別信息整合,過濾目標圖像中的冗余圖像,得到密集型目標的定位信息和類別信息。本發明所需訓練樣本減少,采集成本降低,同時可實現快速迭代更新。
技術領域
本發明涉及圖像識別技術領域,特別是涉及一種密集型目標檢測計量方法。
背景技術
密集型目標檢測任務,相較于一般目標檢測任務,難點在于圖像中物體數量非常龐大,少則幾十,多則幾百。物體緊緊依靠在一起,需要對一般目標檢測方法進行特定的調整。以全景貨架識別為例,全景貨架識別為拍攝多層(4層及以上,高在2.5m及以下)貨架,利用深度學習方法識別貨架上的商品類別和定位。在全景貨架場景下,前排貨物將近100+個商品緊密分布在一起,同時還是同類商品、相同顏色緊密連在一起。在這種場景下,使用攝像頭拍攝出來的圖像,會有商品成像面積過小、密度大、尺寸不一、類別數不勝數的情況,大大增加識別難度。
目前,密集型目標檢測任務,主要還是使用目標檢測識別方法,由于密集型目標有數量繁多,密度大、成像面積小的特性,一般都會加上業務限制,比如:在全景貨架中,有的是只使用一個攝像頭,先識別每排貨架區域,再識別貨架區域里面的商品;在人流檢測中,增設多個攝像頭,拍攝每個獨立區域,進而識別每個區域的行人。然而,現有技術中,通常使用一般的目標檢測訓練方法,在檢測目標更新時,需要大量訓練樣本重新對檢測模型進行訓練,采集成本高,同時不利于快速迭代更新。
發明內容
為了解決現有技術存在的上述問題,本發明提供了一種密集型目標檢測計量方法。
本發明采用的技術方案是:
一種密集型目標檢測計量方法,包括以下步驟:
將待檢測的原始圖像輸入密集型目標檢測模型;
密集型目標檢測模型對原始圖像中的目標區域進行定位,然后輸出目標區域的邊界框;
根據目標區域的邊界框,對原始圖像進行剪裁,得到目標圖像及目標圖像的定位信息,并將目標圖像輸入分類模型;
分類模型對目標圖像進行圖像分類,得到目標圖像的類別信息;
將目標圖像的定位信息及其類別信息整合,過濾目標圖像中的冗余圖像,得到密集型目標的定位信息和類別信息。
優選地,所述密集型目標檢測模型的訓練步驟如下:
向分類網絡輸入訓練數據集,然后對分類網絡進行訓練,得到分類模型;
對RetinaNet目標檢測模型進行調整,然后將分類模型組合到調整后的RetinaNet目標檢測模型中;
向調整后的RetinaNet目標檢測模型輸入不緊密分布的目標檢測數據,然后對調整后的RetinaNet目標檢測模型進行訓練,得到RetinaNet基礎模型;
向RetinaNet基礎模型輸入密集型目標檢測數據,然后對RetinaNet基礎模型進行訓練,得到密集型目標檢測模型。
進一步優選地,分類網絡為ResNet-50分類網絡,訓練數據集為ImageNet數據集。
進一步優選地,向調整后的RetinaNet目標檢測模型輸入不緊密分布的目標檢測數據、向RetinaNet基礎模型輸入密集型目標檢測數據后,均對目標檢測數據進行數據增強處理。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣州眾聚智能科技有限公司,未經廣州眾聚智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010085239.9/2.html,轉載請聲明來源鉆瓜專利網。





