[發(fā)明專利]基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法及系統(tǒng)在審
| 申請?zhí)枺?/td> | 202210346087.2 | 申請日: | 2022-03-31 |
| 公開(公告)號: | CN115357808A | 公開(公告)日: | 2022-11-18 |
| 發(fā)明(設(shè)計)人: | 胡瑞敏;李希希;王正;黃娜娜;彭瀟然;王曉晨 | 申請(專利權(quán))人: | 武漢大學(xué) |
| 主分類號: | G06F16/9537 | 分類號: | G06F16/9537;G06F16/29 |
| 代理公司: | 武漢智權(quán)專利代理事務(wù)所(特殊普通合伙) 42225 | 代理人: | 張凱 |
| 地址: | 430072*** | 國省代碼: | 湖北;42 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 分辨率 上下文 關(guān)聯(lián) 位置 預(yù)測 方法 系統(tǒng) | ||
本發(fā)明公開了一種基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法及系統(tǒng),方法包括以下步驟:步驟S1、根據(jù)用戶歷史軌跡數(shù)據(jù),獲取多分辨率時間信息;步驟S2、根據(jù)用戶歷史軌跡數(shù)據(jù),獲取多分辨率空間信息;步驟S3、根據(jù)獲取的多分辨率時間信息和多分辨率空間信息,獲取序列的多分辨率的時間和空間上下文規(guī)律;步驟S4、根據(jù)獲取的序列的多分辨率的時間和空間上下文規(guī)律,獲取位置預(yù)測信息。本發(fā)明提供的基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法,通過多分辨率的時間和空間信息,獲取更豐富的用戶時間空間序列行為規(guī)律,使得位置預(yù)測的精度更高。
技術(shù)領(lǐng)域
本發(fā)明涉及信息預(yù)測技術(shù)領(lǐng)域,具體是涉及一種基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法及系統(tǒng)。
背景技術(shù)
位置預(yù)測技術(shù)是指基于用戶過去一段時間內(nèi)的歷史軌跡數(shù)據(jù)預(yù)測用戶未來可能出現(xiàn)的位置。在智能交通、智能廣告、旅游推薦、犯罪分子跟蹤等領(lǐng)域有重要的應(yīng)用價值,因此位置預(yù)測是當(dāng)前大數(shù)據(jù)分析和智慧城市建設(shè)中的一個研究熱點問題。
近年來,針對位置預(yù)測有大量的研究工作。這些研究工作主要可以分為三大類:基于矩陣分解的方法(比如文獻(Xingyi Ren,Meina Song,E Haihong,and JundeSong.Context-aware probabilistic matrix factorization modeling for point-of-interest recommendation.Neurocomputing,241:38-5,2017.))、基于馬爾科夫鏈的方法(比如文獻(Jia-Dong Zhang,Chi-Yin Chow,and Yanhua Li.Lore:Exploitingsequential influence for location recommendations.In ACM SIGSPATIAL,pages103-12,2014.))、基于深度網(wǎng)絡(luò)的方法(比如文獻(Antonios Karatzoglou,AdrianJablonski,and Michael Beigl.A seq2seq learning approach for modeling semantictrajectories and predicting the next location.In ACM SIGSPATIAL,pages 528-31,2018.))。
但是,這些方法存在一定的限制,他們在對序列數(shù)據(jù)進行學(xué)習(xí)時,只考慮了相鄰點之間的絕對時間間隔和絕對空間距離,盡管這些工作在位置預(yù)測上有一定的效果,但是用戶的簽到數(shù)據(jù)分布不均勻,采用絕對距離這一種分辨率只能反應(yīng)用戶行為的部分規(guī)律。因此,位置預(yù)測仍然是一項艱巨的任務(wù)。
發(fā)明內(nèi)容
本發(fā)明的目的是為了克服現(xiàn)有同類算法中數(shù)據(jù)分布不均勻、精度低的問題,提供一種基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法及系統(tǒng)。
第一方面,本發(fā)明提供了一種基于多分辨率上下文關(guān)聯(lián)的位置預(yù)測方法,包括以下步驟:
步驟S1、根據(jù)用戶歷史軌跡數(shù)據(jù),獲取多分辨率時間信息;
步驟S2、根據(jù)用戶歷史軌跡數(shù)據(jù),獲取多分辨率空間信息;
步驟S3、根據(jù)獲取的多分辨率時間信息和多分辨率空間信息,獲取序列的多分辨率的時間和空間上下文規(guī)律;
步驟S4、根據(jù)獲取的序列的多分辨率的時間和空間上下文規(guī)律,獲取位置預(yù)測信息。
根據(jù)第一方面,在第一方面的第一種可能的實現(xiàn)方式中,所述步驟S1之前,還包括以下步驟:
步驟S0、獲取用戶歷史軌跡數(shù)據(jù)。
根據(jù)第一方面,在第一方面的第二種可能的實現(xiàn)方式中,所述步驟S1,具體包括以下步驟:
步驟S10、根據(jù)用戶歷史軌跡數(shù)據(jù),獲取以多級分辨率時間窗口表示的時間特征。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于武漢大學(xué),未經(jīng)武漢大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210346087.2/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 關(guān)聯(lián)裝置
- 數(shù)據(jù)關(guān)聯(lián)裝置和數(shù)據(jù)關(guān)聯(lián)方法
- 安全關(guān)聯(lián)
- 設(shè)備關(guān)聯(lián)
- 終端關(guān)聯(lián)裝置和終端關(guān)聯(lián)方法
- 關(guān)聯(lián)方法和關(guān)聯(lián)設(shè)備
- 關(guān)聯(lián)方法和關(guān)聯(lián)設(shè)備
- 關(guān)聯(lián)方法和關(guān)聯(lián)設(shè)備
- 關(guān)聯(lián)分析方法和關(guān)聯(lián)分析系統(tǒng)
- 報文關(guān)聯(lián)方法、報文關(guān)聯(lián)裝置及報文關(guān)聯(lián)系統(tǒng)





