[發明專利]摘要生成方法、裝置及計算機設備有效
| 申請號: | 201710481703.4 | 申請日: | 2017-06-22 |
| 公開(公告)號: | CN108280112B | 公開(公告)日: | 2021-05-28 |
| 發明(設計)人: | 孔行 | 申請(專利權)人: | 騰訊科技(深圳)有限公司 |
| 主分類號: | G06F16/34 | 分類號: | G06F16/34;G06F40/30 |
| 代理公司: | 北京三高永信知識產權代理有限責任公司 11138 | 代理人: | 朱雅男 |
| 地址: | 518057 廣東省深圳*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 摘要 生成 方法 裝置 計算機 設備 | ||
1.一種摘要生成方法,其特征在于,所述方法包括:
獲取文檔D,所述文檔D包括至少一個句子,每個句子包括至少一個詞語,所述文檔D用于依次通過抽取式模型與生成式模型,獲得所述文檔D對應的摘要;
通過所述抽取式模型計算所述文檔D中每個句子的句子級編碼向量;
通過所述抽取式模型根據所述每個句子的句子級編碼向量計算所述文檔D的文檔級編碼向量;
通過所述抽取式模型根據所述句子級編碼向量和所述文檔級編碼向量計算所述文檔D中的每個句子的概率P,將所述文檔D中所述概率P大于預設閾值的句子抽取為m個候選句子;
將所述m個候選句子的句子級編碼向量作為輸入序列輸入生成式模型,計算第i個解碼時刻的輸出概率,i為正整數;
當所述輸出概率大于所述預設閾值時,通過所述生成式模型從詞典中生成一個詞語,作為摘要中的第i個詞語,所述詞典由所述文檔D中出現頻率最高的n個詞語組成;
當所述輸出概率小于所述預設閾值時,通過所述生成式模型從所述m個候選句子中的目標句子中抽取出目標詞語,作為所述摘要中的第i個詞語。
2.根據權利要求1所述的方法,其特征在于,所述抽取式模型包括:第一雙向循環神經網絡;
所述計算所述文檔D中每個句子的句子級編碼向量,包括:
將所述句子中的詞語沿前向傳播方向輸入所述第一雙向循環神經網絡,得到第一前向編碼向量;
將所述句子中的詞語沿后向傳播方向輸入所述第一雙向循環神經網絡,得到第一后向編碼向量;
根據所述第一前向編碼向量和所述第一后向編碼向量,得到所述句子的句子級編碼向量。
3.根據權利要求1所述的方法,其特征在于,所述抽取式模型包括:第二雙向循環神經網絡;
所述通過所述抽取式模型根據所述每個句子的句子級編碼向量計算所述文檔D的文檔級編碼向量,包括:
將所述文檔D中每個句子的句子級編碼向量沿前向傳播方向輸入所述第二雙向循環神經網絡,得到第二前向編碼向量;
將所述文檔D中每個句子的句子級編碼向量沿后向傳播方向輸入所述第二雙向循環神經網絡,得到第二后向編碼向量;
根據所述第二前向編碼向量和所述第二后向編碼向量,得到所述文檔D的文檔級編碼向量。
4.根據權利要求1所述的方法,其特征在于,所述抽取式模型包括基于注意力機制的模型;
所述基于注意力機制的模型為:
p(Si=1|D)=σ(a(Si,hi));
其中,Si為所述文檔D中第i個句子的句子級編碼向量,所述hi為所述文檔D的文檔級編碼向量,a為預設的前饋神經網絡,σ為預設的第一非線性函數,p(Si=1|D)代表在第i個句子的概率大于所述預設閾值時將所述第i個句子標注為1,并抽取所述第i個句子,i為正整數。
5.根據權利要求1所述的方法,其特征在于,所述生成式模型包括編碼器和解碼器;
所述將所述m個候選句子的句子級編碼向量作為輸入序列輸入所述生成式模型,計算第i個解碼時刻的輸出概率,包括:
通過所述編碼器根據所述m個候選句子的句子級編碼向量計算第i個解碼時刻的上下文向量ci;
將第i-1個解碼時刻的隱含狀態、所述上下文向量ci和所述摘要中的第i-1個詞語輸入所述解碼器,計算得到第i個解碼時刻的隱含狀態,所述第i個解碼時刻的隱含狀態用于表示所述解碼器在所述第i個解碼時刻下已經處理的部分輸入序列;
根據所述摘要中的第i-1個詞語、所述上下文向量ci和所述第i個解碼時刻的隱含狀態,計算第i個解碼時刻的輸出概率。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于騰訊科技(深圳)有限公司,未經騰訊科技(深圳)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710481703.4/1.html,轉載請聲明來源鉆瓜專利網。





