[發明專利]一種基于VGGNet的人數估計方法在審
| 申請號: | 201710859062.1 | 申請日: | 2017-09-21 |
| 公開(公告)號: | CN107563349A | 公開(公告)日: | 2018-01-09 |
| 發明(設計)人: | 馬爭;秦方;李佩倫 | 申請(專利權)人: | 電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 電子科技大學專利中心51203 | 代理人: | 周劉英 |
| 地址: | 611731 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 vggnet 人數 估計 方法 | ||
技術領域
本發明屬于數字圖像技術領域,具體涉及基于深度學習的人群密度估計。
背景技術
隨著科學技術的快速發展和經濟水平的不斷提高,人們的生活需求也越來越高,從而促使了人工智能的快速發展,目前人工智能技術已經逐漸應用到各個領域,包括智能駕駛、智能監控、安防等等。通過視頻圖像實現人數估計在智能監控、安防領域有重要的應用價值,在大型公共場合,比如大型活動現場,火車站等地方,通過圖像及時估計人數,有助于及時疏散過密人群,防止踩踏等安全事故的發生等。另外,還可用于異常警示信號等等。
目前的人數統計算法可以概括為3類:
(1)基于目標檢測的方法:
根據行人目標特征建立檢測模型,選擇的目標特征有多種,包括人頭、整體行人目標、或者頭部和肩部輪廓相結合等等,根據這些特征訓練檢測器,并結合滑窗的方法進行目標檢測,統計檢測到的目標個數,即為人數。其中,檢測器主要是特征加分類器的形式,特征主要采取HOG(梯度方向直方圖)、LBP等特征,分類器主要采用Adaboost、SVM等。這種基于檢測的方法對所使用的目標檢測方法的準確度依賴性很高,且只適用于背景簡單,人數稀疏、行人之間沒有遮擋或者遮擋較少的場景,實用性及可推廣性較低。
(2)基于密度圖或人數回歸的方法:
這種方法通過建立圖像特征和人數之間的回歸模型,或者通過建立圖像特征與人群密度圖之間的回歸模型來估計圖像中的人數。常用的特征有邊緣特征,紋理特征等,常用的回歸函數主要有高斯回歸,線性回歸等。這類方法多用于監控視頻場景,利用前景分割提取視頻圖像中的目標區域,以提取有效特征。但是由于此類算法主要依賴于特征的選取,目前基于邊緣信息、紋理信息以及融合多種特征信息等方法準確性較差,如何設計有效特征仍然是該類算法的主要問題,且該類方法對場景依賴性高,不同場景之間的可遷移能力差,即泛化能力差。
(3)基于深度學習的方法:
目前深度學習在計算機視覺的眾多研究領域都表現出了驚人的優越性,雖然深度學習算法在人數統計方面的應用不多,但是此類算法在準確度上和推廣性上相比較于傳統算法具有顯著的進步。此類方法利用深度卷積神經網絡,通過大量的標記樣本來訓練該網絡學習人群特征,從而輸出圖像中的人數,此類方法不用人為設計特征,并且算法簡單,易于訓練。但是目前的深度學習算法多采用多列卷積神經網絡,存在復雜度高,樣本需要量大,訓練時間長的問題。
發明內容
本發明的發明目的在于:針對上述存在的問題,提供一種利用深度學習技術估計圖像中的人數。
本發明的基于VGGNet的人數估計方法包括下列步驟:
構建深度神經網絡模型(VGG-MCNN):
底層網絡采用VGG16的前10個卷積層和3個池化層,用conv1_1、conv1_2、conv2_1、conv2_2、conv3_1、conv3_2、conv4_1、conv4_2、conv4_3表示VGG16的前10個卷積層,pool1~3表示對應的3個池化層,則本發明的VGG-MCNN的底層網絡結構為:conv1_1、conv1_2、pool1、conv2_1、conv2_2、pool2、conv3_1、conv3_2、pool3、conv4_1、conv4_2和conv4_3的順次連接;
在底層網絡后設置3列卷積網,每列卷包括4個卷積層和1個池化層,3列的卷積核大小分別為5x5、7x7、9x9;
3列卷積網的網絡輸出并入1個拼接層,所述拼接層再順次連接3個卷積層,各卷積層的卷積核大小分別為:5x5、5x5、1x1;
采集訓練樣數據對所構建的深度神經網絡模型進行訓練,獲得訓練好的深度神經網絡模型,訓練時,底層網絡設置為無后向計算,即無需更新底層網絡的權值參數,直接采用VGG16已訓練好的權值參數即可;
將待估計圖像輸入訓練好的深度神經網絡模型中,得到待估計圖像的估計密度圖,對所述估計密度圖進行積分,得到待估計圖像的估計人數。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學,未經電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710859062.1/2.html,轉載請聲明來源鉆瓜專利網。





