[發明專利]神經網絡的訓練方法及基于神經網絡的行人屬性識別方法有效
| 申請號: | 201811482879.2 | 申請日: | 2018-12-05 |
| 公開(公告)號: | CN109829356B | 公開(公告)日: | 2021-04-06 |
| 發明(設計)人: | 李倩玉;何山;殷兵;劉聰;柳林 | 申請(專利權)人: | 科大訊飛股份有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62 |
| 代理公司: | 北京潤澤恒知識產權代理有限公司 11319 | 代理人: | 莎日娜 |
| 地址: | 230088 安徽省*** | 國省代碼: | 安徽;34 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 神經網絡 訓練 方法 基于 行人 屬性 識別 | ||
本發明提供了一種神經網絡的訓練方法及基于神經網絡的行人屬性識別方法,該識別方法包括:獲取待識別的目標行人圖像;對目標行人圖像作身體區域分割,獲取與不同身體區域對應的多個局部圖像;將多個局部圖像分別輸入至預先經過訓練的與不同身體區域相對應的多個屬性識別網絡,得到與不同身體區域對應的多組目標行人屬性;其中,目標屬性識別網絡用于結合目標行人圖像中行人的性別信息,以及目標局部圖像中目標身體區域的方向信息,來識別目標行人圖像中行人的全身屬性,以及專屬于目標身體區域的行人屬性;對多組目標行人屬性進行匯總處理,得到目標行人圖像的多個目標行人屬性。本發明能夠在識別行人屬性時,提升泛化能力以及識別準確度。
技術領域
本發明涉及機器學習技術領域,特別是涉及一種神經網絡的訓練方法及裝置、以及一種基于神經網絡的行人屬性識別方法及裝置。
背景技術
隨著監控視頻的普及,如何準確有效地利用視頻中的行人信息,挖掘行人相關屬性具有很大的價值。
目前的行人屬性識別方法主要是通過構建一個基于注意力機制的深度網絡,可以將不同的屬性按照圖像的注意力分配規則進行學習,得到輸入圖像中行人的屬性結果。
在訓練該基于注意力機制的深層網絡時,訓練樣本往往是同一環境背景(例如地鐵閘機口)下拍攝的圖片,這些圖片中行人的姿態較為單一且固定,利用注意力機制來學習行人屬性與行人圖片中某個特定位置之間的關系,獲得最終行人屬性識別的結果。例如學習行人的雙肩背包屬性,則利用注意力機制對圖像中人體的上半部分位置識別為上半身,并對上半身進行屬性特征的學習,從而學習到該人體的上半部分位置與雙肩背包屬性之間的關系。
該訓練后的深層網絡只適用于上述舉例的地鐵閘機口環境,當應用到其他環境背景下使用時,由于行人的姿態變化較為明顯,會造成屬性識別錯誤的問題,因此,難以應用到未訓練的其他環境背景下使用,泛化能力差。
因此,相關技術中的行人屬性識別方法普遍存在著泛化能力差、行人屬性識別準確度低的問題。
發明內容
本發明提供了一種神經網絡的訓練方法及裝置、以及一種基于神經網絡的行人屬性識別方法及裝置,以解決相關技術中的行人屬性識別方法所存在的泛化能力差、行人屬性識別準確度低的問題。
為了解決上述問題,根據本發明的一個方面,本發明公開了一種神經網絡的訓練方法,包括:
獲取訓練樣本集,所述訓練樣本集包括多個行人圖像樣本;
對所述訓練樣本集中的任意一個行人圖像樣本作身體區域分割,獲取與不同身體區域對應的多個局部圖像樣本,其中,每個局部圖像樣本標注有行人屬性信息;
識別每個局部圖像樣本中身體區域所處的方向信息;
檢測所述行人圖像樣本的性別信息;
根據所述訓練樣本集中任意一個行人圖像樣本的所述多個局部圖像樣本、每個局部圖像樣本的所述方向信息、所述行人圖像樣本的所述性別信息,以及每個局部圖像樣本上標注的行人屬性信息,對多個屬性識別網絡分別作行人屬性特征的學習和訓練,得到與不同身體區域對應的多個屬性識別網絡;
其中,經過訓練后的每個屬性識別網絡用于結合待識別圖像中行人的性別信息,以及所述待識別圖像中每個局部圖像對應的身體區域的方向信息,來識別所述待識別圖像中行人的全身屬性,以及專屬于每個所述身體區域的行人屬性。
根據本發明的又一個方面,本發明公開了一種基于神經網絡的行人屬性識別方法,包括:
獲取待識別的目標行人圖像;
對所述目標行人圖像作身體區域分割,獲取與不同身體區域對應的多個局部圖像;
將所述多個局部圖像分別輸入至預先經過訓練的與不同身體區域相對應的多個屬性識別網絡,得到與不同身體區域對應的多組目標行人屬性;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于科大訊飛股份有限公司,未經科大訊飛股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811482879.2/2.html,轉載請聲明來源鉆瓜專利網。





