[發明專利]一種基于深度學習的文本細粒度情感分析算法有效
| 申請號: | 202011027335.4 | 申請日: | 2020-09-25 |
| 公開(公告)號: | CN112256866B | 公開(公告)日: | 2021-09-03 |
| 發明(設計)人: | 韓東紅;朱帥偉;李婧;吳剛;喬百友 | 申請(專利權)人: | 東北大學 |
| 主分類號: | G06F16/35 | 分類號: | G06F16/35;G06F16/33;G06F40/211;G06F40/242;G06F40/289;G06N3/04;G06N3/08 |
| 代理公司: | 廣東有知貓知識產權代理有限公司 44681 | 代理人: | 王臻巍 |
| 地址: | 110004 遼寧*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 文本 細粒度 情感 分析 算法 | ||
1.一種基于深度學習的文本細粒度情感分析算法,其特征在于:包括如下步驟:基于輔助學習和注意力機制的AL-ATT模型和基于圖卷積網絡與注意力機制的GCN-ATT模型;
基于輔助學習和注意力機制的AL-ATT模型包括如下步驟:數據預處理—注意力嵌入模塊—輔助學習模塊—交互注意力模塊—輸出模塊—正則化約束;
基于圖卷積網絡與注意力機制的GCN-ATT模型包括如下步驟:數據預處理—輸入嵌入Bi-GRU模塊—注意力嵌入模塊—圖卷積網絡模塊—輸出模塊與正則化約束;
輔助學習模塊包括以下步驟:
S1、先將上下文或者目標項的詞性映射為詞性向量epos,并通過Glove預訓練模型得到的詞向量eG,將兩者拼接得到i=[epos;eG]作為輔助學習層的輸入;
S2、將i輸入到Bi-LSTM中得到前向隱含向量和后向隱含向量將和拼接得到最后的上下文隱含表示
S3、將輔助信息Haux與注意力嵌入模塊得到的ht與hc加權融合得到目標的隱含向量表示Ht和文本隱含向量表示Hc;
圖卷積網絡模塊包括以下步驟:
S1、構造一個圖來表示一個句子中多個情感實體的情感依賴關系,該圖中每個節點表示一個情感實體,每條邊表示的是情感實體之間的情感依賴關系,節點在GCN中對應于情感實體表示s=[x1,x2,...,xK];
S2、使用圖卷積網絡將圖中節點與其鄰接節點的相關信息表示一個新的向量表示,連接多個GCN層,最終使每個節點表示包含其他節點的信息,在每個GCN層中,都將上一層的節點向量表示作為輸入,并得到新的節點表示,即其中,l表示層數,σ表示RELU激活函數。
2.根據權利要求1所述的一種基于深度學習的文本細粒度情感分析算法,其特征在于所述基于輔助學習和注意力機制的AL-ATT模型中的數據預處理包括:
S1、根據xml文件中的標簽“text”、“aspectCategory”,提取出模型訓練需要的文本內容,主要包括每條句子、句子包含的目標項以及對應目標項的情感極性;
S2、利用步驟S1的結果,以空格或標點符號進行分詞;
S3、采用的工具是Python的自然語言處理庫NLTK,通過其提供的英文停用詞詞典來去停用詞;
S4、對分詞后的每一個詞標注正確詞性,預處理后文本標記為目標實體標記為
3.根據權利要求1所述的一種基于深度學習的文本細粒度情感分析算法,其特征在于所述基于輔助學習和注意力機制的AL-ATT模型中的注意力嵌入模塊包括:
S1、通過BERT模型將模型的文本輸入sc,目標實體st轉換為詞向量表示即目標實體
S2、將多頭注意力機制應用于文本sc和st后,可以得到上下文詞語義表示的集合c={c1,c2,…,cn}以及目標中每個詞與上下文交互后的表示集合t={t1,t2,…,tm};
S3、將c和t輸入到兩個全連接層中,最終得到注意嵌入層隱含表示和
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于東北大學,未經東北大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011027335.4/1.html,轉載請聲明來源鉆瓜專利網。





