[發(fā)明專利]人群計(jì)數(shù)方法、裝置、存儲介質(zhì)及電子設(shè)備有效
| 申請?zhí)枺?/td> | 202210176763.6 | 申請日: | 2022-02-25 |
| 公開(公告)號: | CN114581946B | 公開(公告)日: | 2023-06-13 |
| 發(fā)明(設(shè)計(jì))人: | 曾錦山;徐瑞英 | 申請(專利權(quán))人: | 江西師范大學(xué) |
| 主分類號: | G06V40/10 | 分類號: | G06V40/10;G06V10/774;G06V10/77 |
| 代理公司: | 廣州三環(huán)專利商標(biāo)代理有限公司 44202 | 代理人: | 鄭華潔 |
| 地址: | 330022 *** | 國省代碼: | 江西;36 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 人群 計(jì)數(shù) 方法 裝置 存儲 介質(zhì) 電子設(shè)備 | ||
本公開關(guān)于人群計(jì)數(shù)方法、裝置、存儲介質(zhì)及電子設(shè)備。該方法包括獲取目標(biāo)圖像,所述目標(biāo)圖像包括至少一個(gè)人物;將所述目標(biāo)圖像輸入第一網(wǎng)絡(luò),得到所述目標(biāo)圖像的人物統(tǒng)計(jì)結(jié)果;其中,所述第一網(wǎng)絡(luò)通過對預(yù)訓(xùn)練好的第二網(wǎng)絡(luò)的知識進(jìn)行學(xué)習(xí)和復(fù)習(xí)得到,所述第二網(wǎng)絡(luò)被訓(xùn)練為進(jìn)行人群統(tǒng)計(jì)的網(wǎng)絡(luò),所述第一網(wǎng)絡(luò)的容量小于所述第二網(wǎng)絡(luò)的容量。本公開可以有效地緩解教師網(wǎng)絡(luò)和學(xué)生網(wǎng)絡(luò)的能力差距,以及解決錯(cuò)誤傳播問題。
技術(shù)領(lǐng)域
本公開涉及互聯(lián)網(wǎng)技術(shù)領(lǐng)域,尤其涉及人群計(jì)數(shù)方法、裝置、存儲介質(zhì)及電子設(shè)備。
背景技術(shù)
現(xiàn)有的人群計(jì)數(shù)方法一般可分為三類,即:E基于檢測器的方法、基于回歸器的方法和基于深度學(xué)習(xí)的方法。第一類人群計(jì)數(shù)方法通常通過使用行人檢測器對人群進(jìn)行定位來估計(jì)人群數(shù)量,主要關(guān)注人類的一些重要特征,如面部和身體。這些方法通常適用于目標(biāo)數(shù)量較少的稀疏場景,但對于背景復(fù)雜且目標(biāo)密集的場景可能會失敗目標(biāo),尤其是人群遮擋?;诨貧w器的方法通過從一些手工制作的低級特征中學(xué)習(xí)映射來產(chǎn)生人群數(shù)量的估計(jì)。雖然第二類方法在一定程度上可以緩解遮擋和背景雜波的問題,但是它們的性能取決于低級特征的質(zhì)量,并且通常遠(yuǎn)不能滿足實(shí)際應(yīng)用的要求?;谏疃葘W(xué)習(xí)的方法已成為人群計(jì)數(shù)任務(wù)的主流,并取得了顯著進(jìn)展。為了獲得更好的性能,大多數(shù)最先進(jìn)的方法使用重型骨干網(wǎng)絡(luò),如VGG網(wǎng)絡(luò)作為特征提取器。雖然這些大量的人群計(jì)數(shù)模型在估計(jì)人群數(shù)量方面可以取得令人滿意的性能,但它們令人印象深刻的性能是以高昂的計(jì)算成本和硬件負(fù)擔(dān)為代價(jià)的,限制了它們在實(shí)際應(yīng)用中的廣泛使用,并導(dǎo)致可擴(kuò)展性差,尤其是在邊緣計(jì)算設(shè)備上有限的計(jì)算資源。
發(fā)明內(nèi)容
本公開提供人群計(jì)數(shù)方法、裝置、存儲介質(zhì)及電子設(shè)備,以至少解決相關(guān)技術(shù)中上述至少一個(gè)技術(shù)問題。本公開的技術(shù)方案如下:
根據(jù)本公開實(shí)施例的第一方面,提供一種人群計(jì)數(shù)方法,包括:
獲取目標(biāo)圖像,所述目標(biāo)圖像包括至少一個(gè)人物;
將所述目標(biāo)圖像輸入第一網(wǎng)絡(luò),得到所述目標(biāo)圖像的人物統(tǒng)計(jì)結(jié)果;
其中,所述第一網(wǎng)絡(luò)通過對預(yù)訓(xùn)練好的第二網(wǎng)絡(luò)的知識進(jìn)行學(xué)習(xí)和復(fù)習(xí)得到,所述第二網(wǎng)絡(luò)被訓(xùn)練為進(jìn)行人群統(tǒng)計(jì)的網(wǎng)絡(luò),所述第一網(wǎng)絡(luò)的容量小于所述第二網(wǎng)絡(luò)的容量。
在一示例性的實(shí)施方式中,所述第一網(wǎng)絡(luò)包括第一特征提取網(wǎng)絡(luò)、復(fù)習(xí)網(wǎng)絡(luò)、第一解碼網(wǎng)絡(luò)和融合網(wǎng)絡(luò),所述第二網(wǎng)絡(luò)包括第二特征提取網(wǎng)絡(luò)和第二解碼網(wǎng)絡(luò);
其中,所述復(fù)習(xí)網(wǎng)絡(luò)用于所述第二網(wǎng)絡(luò)中的知識進(jìn)行復(fù)習(xí),并且向所述融合網(wǎng)絡(luò)輸出復(fù)習(xí)結(jié)果;
并且,對所述第二網(wǎng)絡(luò)的訓(xùn)練包括基于獲取到的總損失反饋調(diào)整所述的第二特征提取網(wǎng)絡(luò)和所述第二解碼網(wǎng)絡(luò)的參數(shù),但是所述第二解碼網(wǎng)絡(luò)不用于對所述第一網(wǎng)絡(luò)進(jìn)行訓(xùn)練。
在一示例性的實(shí)施方式中,所述第一特征提取網(wǎng)絡(luò)被設(shè)置為MobileNet?的子網(wǎng),并且,所述第一特征提取網(wǎng)絡(luò)不包括所述第二特征提取網(wǎng)絡(luò)中的任意通道。
在一示例性的實(shí)施方式中,所述方法還包括對所述第一網(wǎng)絡(luò)進(jìn)行訓(xùn)練的步驟,所述對所述第一網(wǎng)絡(luò)進(jìn)行訓(xùn)練,包括:
基于所述第一網(wǎng)絡(luò)和所述第二特征提取網(wǎng)絡(luò)構(gòu)建訓(xùn)練網(wǎng)絡(luò);
獲取樣本圖像,所述樣本圖像攜帶的標(biāo)簽表征所述樣本圖像中的人物數(shù)量;
基于所述樣本圖像調(diào)整所第一網(wǎng)絡(luò)的參數(shù)。
在一示例性的實(shí)施方式中,所述基于所述第一網(wǎng)絡(luò)和所述第二特征提取網(wǎng)絡(luò)構(gòu)建訓(xùn)練網(wǎng)絡(luò),包括:
在所述第一特征提取網(wǎng)絡(luò)和所述第二特征提取網(wǎng)絡(luò)之間設(shè)置至少一個(gè)輔助訓(xùn)練網(wǎng)絡(luò),各所述輔助訓(xùn)練網(wǎng)絡(luò)與所述第一特征提取網(wǎng)絡(luò)和所述第二特征提取網(wǎng)絡(luò)都進(jìn)行雙向信息傳遞;
所述第一特征提取網(wǎng)絡(luò)與至少一個(gè)復(fù)習(xí)網(wǎng)絡(luò)連接,并且所述第一特征提取網(wǎng)絡(luò)與所述第一解碼網(wǎng)絡(luò)連接;
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于江西師范大學(xué),未經(jīng)江西師范大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210176763.6/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





