[發明專利]一種基于多任務多視圖增量學習的用戶行為識別方法在審
| 申請號: | 202210370808.3 | 申請日: | 2022-04-11 |
| 公開(公告)號: | CN114708553A | 公開(公告)日: | 2022-07-05 |
| 發明(設計)人: | 張嘯;師脈旺;于東曉 | 申請(專利權)人: | 山東大學 |
| 主分類號: | G06V20/52 | 分類號: | G06V20/52;G06K9/62;G06N3/04;G06N3/08;G06V10/774;G06V10/82;G06V10/80 |
| 代理公司: | 青島華慧澤專利代理事務所(普通合伙) 37247 | 代理人: | 付秀穎 |
| 地址: | 250013 山*** | 國省代碼: | 山東;37 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 任務 視圖 增量 學習 用戶 行為 識別 方法 | ||
本發明公開了一種基于多任務多視圖增量學習的用戶行為識別方法,包括以下步驟,S1.采集活動姿態數據,將數據劃分多個部分,并根據參與訓練的人員確定任務數量以及每個任務的視圖數量,初始化每個階段的參數;S2.利用多任務多視圖深度神經網絡為傳感器數據提取特征;S3.參數更新,通過計算多個損失函數,并通過反向傳播進行參數更新;S4.所有階段訓練結束,獲得最終的預測結果。其優點在于,MTMVIS使用多任務多視圖深度神經網絡的每一層分別提取特征,并為每個任務使用注意力層加權多任務多視圖深度神經網絡所有層的輸出作為最終的輸出層。MTMVIS使用自適應權重鞏固來減輕災難性遺忘問題并增強模型可擴展性。
技術領域
本發明屬于智能設備用戶行為預測技術領域,具體涉及一種基于多任務多視圖增量學習的用戶行為識別方法。
背景技術
近年來,通過智能感知實現的用戶行為識別在學術和工業領域引起了越來越多的研究者的興趣。各種傳感器(如加速度計、陀螺儀等)嵌入強大的智能手機或智能可穿戴設備被用來識別用戶行為,廣泛應用于醫療服務、商業、安全等領域。用戶行為識別旨在檢測現實世界中的用戶行為,這可以讓智能系統幫助個人在醫療保健、智能城市等領域提高的生活質量。在之前的研究中,對特定數據集上的用戶行為識別已經取得了較為良好的效果。
但是,現有的用戶行為識別方法存在以下缺陷:(1)傳統的方法在所有時間間隔內從各種傳感器中收集數據,建立一個通用的離線模型來識別活動,這消耗了大量的空間來存儲大量的訓練數據。(2)災難性遺忘在增量學習中很常見。由于傳感器產生的測量速度非???,當模型在變化階段接受新活動訓練時,模型可能會忘記之前學到的知識。(3)不同的人群和不同類型的傳感器通常為相同的活動呈現不同的形式,即任務異構性和視圖異構性。傳統的增量式學習方法往往忽略了這些問題。
發明內容
基于上述問題,本申請提出了一種基于多任務多視圖增量學習的用戶行為識別方法MTMVIS來解決用戶行為識別中的上述三大問題。MTMVIS首先利用了增量學習的在線方法從而節省了時間和空間;通過將不同人群形式化為不同任務,并將位于身體不同部位的傳感器形式化為不同視圖,利用多任務多視圖學習的思想解決任務異構性和視圖異構性;可塑權重鞏固(EWC)可以減輕增量學習中災難性遺忘問題。其技術方案為,
一種基于多任務多視圖增量學習的用戶行為識別方法,包括以下步驟,
S1.采集活動姿態數據,將數據劃分多個部分即初始化活動階段數量,并根據參與訓練的人員確定任務數量以及每個任務的視圖數量,初始化每個階段的參數;
S2.利用多任務多視圖深度神經網絡為傳感器數據提取特征;
S3.參數更新,通過計算多個損失函數,并通過反向傳播進行參數更新;
S4.對S2至S4開展多輪迭代,直到達到迭代輪數范圍要求,然后進行下一階段的訓練過程,直至所有的階段訓練結束,得到最終階段的預測結果。
進一步優選的,步驟S1中,活動姿態的種類為ζ,每種姿態都出現的次數Γ,且出現的順序是隨機的,活動階段數量為M=ζ*Γ;每個活動階段出現用戶單個活動姿態且每個階段出現的活動姿態是隨機可重復的,并根據參與活動的人員數量以及佩戴傳感器的身體部位確定任務數量以及每個任務的視圖數量,并且每個階段的參數具體包括模型參數θm,迭代次數Rm,學習率ρm,m∈{1,2,…,M}表示第m個活動階段。
進一步優選的,步驟S2中,將傳感器采集的數據輸出數據對齊層進行數據對齊,步驟如下,
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于山東大學,未經山東大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210370808.3/2.html,轉載請聲明來源鉆瓜專利網。





