[發(fā)明專利]具有持續(xù)自主學(xué)習(xí)能力的行人跟蹤方法及系統(tǒng)有效
| 申請?zhí)枺?/td> | 202010499397.9 | 申請日: | 2020-06-04 |
| 公開(公告)號: | CN111738103B | 公開(公告)日: | 2023-01-13 |
| 發(fā)明(設(shè)計)人: | 楊陽;高鑫;徐鵬;劉云霞;郭曼;李玉軍 | 申請(專利權(quán))人: | 山東大學(xué) |
| 主分類號: | G06V20/40 | 分類號: | G06V20/40;G06V20/52;G06V40/10;G06V10/778;G06T7/20 |
| 代理公司: | 濟南圣達知識產(chǎn)權(quán)代理有限公司 37221 | 代理人: | 黃海麗 |
| 地址: | 266237 *** | 國省代碼: | 山東;37 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 具有 持續(xù) 自主 學(xué)習(xí) 能力 行人 跟蹤 方法 系統(tǒng) | ||
1.具有持續(xù)自主學(xué)習(xí)能力的行人跟蹤方法,其特征是,包括:
獲取在線監(jiān)控視頻,識別在線監(jiān)控視頻中行人所屬類別;
利用訓(xùn)練好的深度學(xué)習(xí)模型,對在線監(jiān)控視頻的第一幀的當前類別的行人進行標注;
利用行人所屬類別對應(yīng)的追蹤器,對在線監(jiān)控視頻中除第一幀以外的剩余幀進行當前類別行人的追蹤;
訓(xùn)練好的深度學(xué)習(xí)模型,具體的訓(xùn)練步驟包括:
獲取歷史監(jiān)控視頻,對歷史監(jiān)控視頻進行預(yù)處理;
對預(yù)處理后的歷史監(jiān)控視頻進行降維聚類處理,得到N個行人類別,N為正整數(shù),N為聚類類別數(shù);按照聚類結(jié)果將歷史監(jiān)控視頻劃分為N個子集,即每一個子集對應(yīng)一類行人;
對每個子集的第一幀進行行人標注,對聚類后每一個類別的數(shù)據(jù)構(gòu)造一個跟蹤器;
將每個子集的具有行人標注的第一幀,輸入到對應(yīng)的跟蹤器中,得到當前子集剩余幀的行人標注結(jié)果,將所有幀的行人標注結(jié)果進行整合,得到每個子集對應(yīng)的行人標注結(jié)果;
將所有子集對應(yīng)的行人標注結(jié)果,均輸入到深度學(xué)習(xí)模型中,對深度學(xué)習(xí)模型進行訓(xùn)練,得到訓(xùn)練好的深度學(xué)習(xí)模型。
2.如權(quán)利要求1所述的方法,其特征是,所述方法還包括:
如果在線監(jiān)控視頻中某一幀出現(xiàn)新的行人類別,則利用訓(xùn)練好的深度學(xué)習(xí)模型,對在線監(jiān)控視頻的新的行人類別所屬區(qū)域進行標注;利用新的行人類別對應(yīng)的追蹤器,對在線監(jiān)控視頻的剩余幀進行新的行人類別的行人追蹤。
3.如權(quán)利要求1所述的方法,其特征是,識別在線監(jiān)控視頻中行人所屬類別;具體步驟包括:基于在線監(jiān)控視頻中任一幀圖像特征與已知行人類別的圖像特征之間的距離來識別在線監(jiān)控視頻中行人所屬類別。
4.如權(quán)利要求3所述的方法,其特征是,識別在線監(jiān)控視頻中行人所屬類別;具體步驟包括:
對在線監(jiān)控視頻,隨機選擇一幀圖像作為行人類別檢測幀;從行人類別檢測幀中,提取對應(yīng)的若干種圖像特征;對若干種圖像特征進行特征融合,得到待檢測的行人類別特征;計算待檢測的行人類別特征與已知行人類別的行人類別特征進行距離計算,選擇距離最小的行人類別特征對應(yīng)的已知行人類別,作為待檢測行人類別特征的行人類別檢測結(jié)果。
5.具有持續(xù)自主學(xué)習(xí)能力的行人跟蹤系統(tǒng),包括:
獲取模塊,其被配置為:獲取在線監(jiān)控視頻,識別在線監(jiān)控視頻中行人所屬類別;
標注模塊,其被配置為:利用訓(xùn)練好的深度學(xué)習(xí)模型,對在線監(jiān)控視頻的第一幀的當前類別的行人進行標注;
追蹤模塊,其被配置為:利用行人所屬類別對應(yīng)的追蹤器,對在線監(jiān)控視頻中除第一幀以外的剩余幀進行當前類別行人的追蹤;
訓(xùn)練好的深度學(xué)習(xí)模型,具體的訓(xùn)練步驟包括:
獲取歷史監(jiān)控視頻,對歷史監(jiān)控視頻進行預(yù)處理;
對預(yù)處理后的歷史監(jiān)控視頻進行降維聚類處理,得到N個行人類別,N為正整數(shù),N為聚類類別數(shù);按照聚類結(jié)果將歷史監(jiān)控視頻劃分為N個子集,即每一個子集對應(yīng)一類行人;
對每個子集的第一幀進行行人標注,對聚類后每一個類別的數(shù)據(jù)構(gòu)造一個跟蹤器;
將每個子集的具有行人標注的第一幀,輸入到對應(yīng)的跟蹤器中,得到當前子集剩余幀的行人標注結(jié)果,將所有幀的行人標注結(jié)果進行整合,得到每個子集對應(yīng)的行人標注結(jié)果;
將所有子集對應(yīng)的行人標注結(jié)果,均輸入到深度學(xué)習(xí)模型中,對深度學(xué)習(xí)模型進行訓(xùn)練,得到訓(xùn)練好的深度學(xué)習(xí)模型。
6.一種電子設(shè)備,包括:一個或多個處理器、一個或多個存儲器、以及一個或多個計算機程序;其中,處理器與存儲器連接,上述一個或多個計算機程序被存儲在存儲器中,當電子設(shè)備運行時,該處理器執(zhí)行該存儲器存儲的一個或多個計算機程序,以使電子設(shè)備執(zhí)行上述權(quán)利要求1-4任一項所述的方法。
7.一種計算機可讀存儲介質(zhì),用于存儲計算機指令,所述計算機指令被處理器執(zhí)行時,完成權(quán)利要求1-4任一項所述的方法。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于山東大學(xué),未經(jīng)山東大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010499397.9/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 根據(jù)用戶學(xué)習(xí)效果動態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個人化學(xué)習(xí)服務(wù)的方法
- 漸進式學(xué)習(xí)管理方法及漸進式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲介質(zhì)
- 基于強化學(xué)習(xí)的自適應(yīng)移動學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲介質(zhì)
- 游戲?qū)W習(xí)效果評測方法及系統(tǒng)





