[發明專利]一種基于聯邦學習的上下文感知推薦系統及方法有效
| 申請號: | 202110192913.8 | 申請日: | 2021-02-20 |
| 公開(公告)號: | CN112836130B | 公開(公告)日: | 2023-02-03 |
| 發明(設計)人: | 邵杰;阿里·瓦格爾;王衍松;鄧智毅 | 申請(專利權)人: | 四川省人工智能研究院(宜賓) |
| 主分類號: | G06F16/9535 | 分類號: | G06F16/9535;G06F16/9536;G06F16/35;G06F21/62;G06Q30/0601;G06N20/00 |
| 代理公司: | 北京正華智誠專利代理事務所(普通合伙) 11870 | 代理人: | 楊浩林 |
| 地址: | 644000 四川省宜賓市臨*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 聯邦 學習 上下文 感知 推薦 系統 方法 | ||
1.一種基于聯邦學習的上下文感知推薦系統,其特征在于,包括:中央服務器和多個客戶端;
所述中央服務器分別與多個客戶端連接;所述中央服務器上包括:全局推薦模型;每個所述客戶端上包括:本地推薦模型和用戶自定義數據協作協議模塊;
所述本地推薦模型用于使用用戶自定義數據協作協議模塊輸出的用戶數據和全局推薦模型發送過來的服務端模型權重參數進行聯邦學習訓練,得到訓練完成的本地推薦模型;所述訓練完成的本地推薦模型用于對新的用戶數據進行處理,得到對用戶的推薦內容;
所述用戶自定義數據協作協議模塊用于將用戶上下文信息、物品上下文信息、評分歷史和評分歷史的時間記錄進行拼接,得到含有上下文信息的用戶數據,用戶在此過程中可以自由地選擇拼接數據中是否含有用戶上下文信息或者物品上下文信息,之后該模塊在每次迭代時將用戶數據發送至每個客戶端;每個所述客戶端用于根據用戶數據和中央服務器的全局推薦模型發送來的服務端模型權重參數訓練本地推薦模型,完成對本地推薦模型的一次訓練,并將得到的本地模型權重參數發送至中央服務器;所述中央服務器的全局推薦模型用于聚合所有客戶端發送的本地模型權重參數,得到新的服務端模型權重參數,并將新的服務端模型權重參數發送至本地推薦模型,進行對本地推薦模型的第二次訓練,多次訓練本地推薦模型,直到本地推薦模型收斂,得到訓練完成的本地推薦模型;所述訓練完成的本地推薦模型用于對新的用戶數據進行處理,得到對用戶的推薦內容;
所述本地推薦模型的損失函數為:
其中,Li(θ)為第i個本地推薦模型對第i個用戶的所有樣本的平均損失函數,i表示由用戶評分后的物品的總數,為訓練過程中本地推薦模型的輸入,為訓練過程中本地推薦模型的輸出,j為本地數據的編號,為第t次迭代的本地模型權重參數,為MSE_Loss損失函數;
所述本地模型權重參數在每個客戶端的計算公式為:
其中,為第t-1次迭代的方向權重參數,α為學習速率,為梯度因子,為學習速率,為包含上下文嵌入信息的測試集,為包含上下文嵌入信息的訓練集;
所述服務端模型權重參數的計算公式為:
其中,為第t次迭代的服務端模型權重參數,N為客戶端的數量,Wi為各客戶端所占權重大小。
2.一種基于聯邦學習的上下文感知推薦方法,其特征在于,包括以下步驟:
S1、在每個客戶端的本地數據和本地推薦模型間構建一個用戶自定義數據協作協議模塊;
S2、采用用戶自定義數據協作協議模塊將本地數據中的用戶上下文信息、物品上下文信息、評分歷史和評分歷史的時間記錄進行拼接,得到用戶數據;
S3、通過中央服務器將服務端模型權重參數初始值分配至各客戶端;
S4、將用戶數據和服務端模型權重參數初始值輸入客戶端的本地推薦模型,對本地推薦模型進行訓練;
S5、將在本地推薦模型上訓練得到的本地模型權重參數發回至中央服務器;
S6、通過中央服務器接收所有客戶端發回的本地模型權重參數,基于全局推薦模型通過加權的方法將所有本地模型權重參數進行聚合處理,得到緩存的服務端模型權重參數,將緩存的服務端模型權重參數作為新的服務端模型權重參數初始值;
S7、跳轉至步驟S3,循環執行步驟S3至步驟S6,直到本地推薦模型收斂,聯邦學習過程結束,得到訓練完成的本地推薦模型;
S8、將新的用戶數據輸入訓練完成的本地推薦模型中,得到對用戶的推薦內容。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于四川省人工智能研究院(宜賓),未經四川省人工智能研究院(宜賓)許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110192913.8/1.html,轉載請聲明來源鉆瓜專利網。





