[發明專利]一種基于深度神經網絡的影評網站用戶的屬性預測方法有效
| 申請號: | 201810524543.1 | 申請日: | 2018-05-28 |
| 公開(公告)號: | CN108829763B | 公開(公告)日: | 2021-09-07 |
| 發明(設計)人: | 屈鴻;劉永勝;房展;舒揚;楊艦;鄧悟;季江舟;張曉敏 | 申請(專利權)人: | 電子科技大學 |
| 主分類號: | G06F16/35 | 分類號: | G06F16/35;G06N3/08 |
| 代理公司: | 成都弘毅天承知識產權代理有限公司 51230 | 代理人: | 徐金瓊 |
| 地址: | 611731 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 神經網絡 影評 網站 用戶 屬性 預測 方法 | ||
1.一種基于深度神經網絡的影評網站用戶的屬性預測方法,其特征在于,包括如下步驟:
(1)基于矩陣分解技術,將用戶歷史評分數據分解為用戶-特征矩陣和電影-特征矩陣,基于兩個矩陣對用戶向量進行稠密填充,其中用戶向量為用戶對各個電影的打分;
(2)基于填充處理后的用戶向量、樣本用戶的多個屬性結構化特征和多任務學習技術進行全連接的深度神經網絡模型訓練,得到訓練好的深度神經網絡模型;
(3)將待預測樣本用戶的用戶向量輸入訓練好的深度神經網絡模型進行預測,得到預測用戶的各個任務屬性的分數,從而得到最終的用戶屬性類別;
所述步驟(1)的具體步驟如下:
(11)基于矩陣分解技術,將用戶歷史評分數據的矩陣R分解為用戶隱性偏好矩陣P和物品隱性反饋矩陣Q,公式如下:
R=PTQ
其中,P∈Rf×m和Q∈Rf×n表示用戶和物品在潛在因素空間的映射,f為潛在因素的維度,T表示矩陣的轉置,m為用戶的個數,n為電影的個數;
(12)根據用戶隱性偏好矩陣P和物品隱性反饋矩陣Q對每一個用戶向量進行固定數量的填充,填充位置為各用戶向量預測的評分數據中數值最高的數據所對應的位置,填充位置具體公式如下:
s.t.||D||2=Z
其中,Z為需要被轉化成非零值元素的個數,indexj表示第j個用戶需要被填充為非零值元素的位置,D為每一個用戶向量中所需要填充的數據的集合,pj,i表示所預測出的j個用戶對i個電影的評分
所述步驟(2)具體步驟如下:
(21)將樣本用戶的標簽表示為多個任務的多分類標簽組合成結構化向量的形式,每一個任務的標簽可表示為如下形式:
式中,N(t)為第t個任務的類別數,其中,任務為用戶的屬性,如果任務t屬于第l個標簽對應的類別,那么對應的的值為1,否則為0;
樣本最終的結構化標簽為:
Y=[Y1,Y2,...YT]
式中,T表示有T任務,Y表示有T任務的標簽;
(22)將填充處理后的用戶向量組成的用戶集合劃分為訓練集和測試集,并初始化深度神經網絡模型參數w;
(23)從訓練集中隨機選擇樣本,計算初始化參數后的深度神經網絡模型中間層的節點輸出和輸出層各單元的數值,其中,中間層神經元的激活函數采用ReLU,即節點輸出函數,公式如下:
f(x)=max(0,x)
式中,x為神經元的輸入;
輸出層的激活函數采用為softmax函數,即輸出層的函數;對于每一個任務t,第k個輸出神經元的激活值的公式為:
式中,netk、nets為神經元的凈輸出值,N(t)為第t個任務的類別數;(24)將步驟(23)得到的中間層的節點輸出和輸出層各單元的數值與步驟(21)得到的樣本最終的結構化標簽做交叉熵,使用交叉熵損失函數計算總體損失,若總體損失值小于設定閾值或迭代次數大于設定最大迭代次數,則停止訓練,否則轉到步驟(25);
(25)采用SGD對步驟(22)中的深度神經網絡模型參數w進行更新后轉到步驟(23)。
2.根據權利要求1所述的一種基于深度神經網絡的影評網站用戶的屬性預測方法,其特征在于,所述步驟(3)的具體步驟如下:
(31)將待預測樣本用戶的用戶向量輸入訓練好的深度神經網絡模型中,計算深度神經網絡模型的輸出,得到輸出形式為[Y1,Y2,...YT]的結果,其中,任務t的分類形式為每一元素表示樣本用戶屬于該類別標簽的概率得分;
(32)對于步驟(31)得到的每一個任務t,該任務的分類Yt是一個多標簽分類,選取得分最高的元素對應的標簽類別作為樣本用戶在該任務下的分類結果具體如下:
將多個任務組合起來,樣本的最終分類結果為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學,未經電子科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810524543.1/1.html,轉載請聲明來源鉆瓜專利網。





