[發明專利]基于姿態估計的人體行為識別方法在審
| 申請號: | 201810079476.7 | 申請日: | 2018-01-26 |
| 公開(公告)號: | CN108446583A | 公開(公告)日: | 2018-08-24 |
| 發明(設計)人: | 姬紅兵;薛飛;張文博;朱志剛;曹奕 | 申請(專利權)人: | 西安電子科技大學昆山創新研究院;西安電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62 |
| 代理公司: | 陜西電子工業專利中心 61205 | 代理人: | 王品華;朱紅星 |
| 地址: | 215347 江蘇省*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 視頻 人體行為識別 人體關節 姿態估計 視頻特征 點位置 訓練集 智能視頻監控 矩陣 距離變化量 訓練分類器 矩陣生成 人機交互 人體行為 視頻檢索 數據集中 相鄰兩幀 變化量 測試集 點距離 分類器 可用 分段 測試 分類 | ||
本發明公開了一種基于姿態估計的人體行為識別方法,主要解決現有技術在視頻人體行為中處理速度過慢的問題。其實現步驟是:1.利用Open?pose方法對視頻中人體進行姿態估計,提取視頻中每幀人體關節點位置坐標;2.根據每幀人體關節點位置坐標,計算相鄰兩幀人體關節點距離變化量矩陣;3.將視頻進行分段,利用每段視頻距離變化量矩陣生成視頻特征;4.將數據集中視頻分為訓練集和測試集兩部分,用訓練集的視頻特征訓練分類器,利用訓練好的分類器對測試集中的視頻進行分類。本發明提高了視頻中人體行為識別的速度,可用于智能視頻監控、人機交互、視頻檢索。
技術領域
本發明屬于圖像處理技術領域,特別涉及一種視頻人體行為識別方法,可用于智能視頻監控、人機交互、視頻檢索。
背景技術
隨著計算機學科與人工智能的發展和應用,視頻分析技術迅速興起并得到了廣泛關注。視頻分析中的一個核心就是人體行為識別,行為識別的準確性和快速性將直接影響視頻分析系統后續工作的結果。因此,如何提高視頻中人體行為識別的準確性和快速性,已成為視頻分析系統研究中的重點問題。
目前,典型的視頻人體行為識別方法主要有:時空興趣點、密集軌跡等。其中:
時空興趣點,是通過檢測視頻中的角點、提取角點的特征進行人體行為識別,但是一部分角點是由背景噪聲產生,不但會影響最后的結果,還會降低識別的運行速度。
密集軌跡,是先對視頻每一幀進行多個尺度上的密集采樣,然后對采樣的點進行跟蹤得到軌跡,再提取軌跡的特征進行行為識別。但是該方法的計算復雜度高,并且產生的特征維度高,會占用大量的內存,很難做到實時識別。
發明內容
本發明的目的在于針對上述已有技術中實時性差的問題,提出一種基于姿態估計的人體行為識別方法,以提高人體行為識別的速度。
本發明的技術思路是:通過估計視頻中人體的姿態,得到每一幀人體關節點的位置,利用人體關節點的位置變化量分析人體的動作,從而快速地進行人體行為識別。
根據上述思路,本發明的實現方案包括如下:
(1)提取視頻中每幀人體關節點位置坐標:
(1a)利用Open-pose方法對視頻中每幀人體進行姿態估計,得到人體脖子、胸部、頭部、右肩、左肩、右臀部、左臀部、右手肘、左手肘、右膝蓋、左膝蓋、右手腕、左手腕、右腳踝和左腳踝這15個關節點的位置坐標,其中第k個關節點的坐標表示為Lk=(xk,yk),k從1到15;
(1b)對每個關節點的位置坐標進行歸一化;
(1c)用歸一化之后的15個關節點位置坐標構成坐標矩陣P,P=[(x1,y1),(x2,y2),...,(xk,yk),...,(x15,y15)],其中(xk,yk)表示第k個關節點歸一化之后的坐標;
(2)計算相鄰兩幀人體關節點距離變化量矩陣:
(2a)根據相鄰兩幀的坐標矩陣Pn和Pn-1,計算相鄰兩幀關節點位置坐標變化量矩陣
(2b)根據關節點位置坐標變化量矩陣計算關節點距離變化量矩陣D;
(3)生成視頻特征:
(3a)按照視頻的時間長度將視頻平均分成4段,將每一段視頻中相鄰兩幀產生的距離變化量矩陣D相加,得到各段累計距離變化量矩陣Di,i從1到4;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安電子科技大學昆山創新研究院;西安電子科技大學,未經西安電子科技大學昆山創新研究院;西安電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810079476.7/2.html,轉載請聲明來源鉆瓜專利網。





