[發(fā)明專利]一種基于計劃機制和知識圖譜引導的摘要生成方法有效
| 申請?zhí)枺?/td> | 202011495634.0 | 申請日: | 2020-12-17 |
| 公開(公告)號: | CN112597296B | 公開(公告)日: | 2022-11-08 |
| 發(fā)明(設計)人: | 林鎮(zhèn)坤;蘇勤亮 | 申請(專利權)人: | 中山大學 |
| 主分類號: | G06F16/34 | 分類號: | G06F16/34;G06F16/36;G06F40/295;G06F40/30;G06N3/04;G06N3/08 |
| 代理公司: | 廣州粵高專利商標代理有限公司 44102 | 代理人: | 劉俊 |
| 地址: | 510275 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 計劃 機制 知識 圖譜 引導 摘要 生成 方法 | ||
1.一種基于計劃機制和知識圖譜引導的摘要生成方法,該方法應用在一種基于計劃機制和知識圖譜引導的摘要生成系統上,該系統包括語義編碼器、計劃機制模塊、摘要解碼器和內容理解器,其特征在于,包括以下步驟:
S1:語義編碼器提取知識圖譜特征,得到命名實體在多關系描述下的全局語義特征;
S2:內容理解器將已經生成的句段進行內容理解,得到已經表達的三元組子序列的特征;計劃機制模塊利用雙向注意力流,計算三元組的在當前語境下的注意力權重,進而得出當前語境下需要蘊含的局部語義特征;
S3:摘要解碼器將S1和S2得到的全局和局部語義特征進行融合,以句段為單位生成文本摘要;
所述步驟S1的具體過是:
首先通過信息抽取工具在大規(guī)模語料上進行命名實體識別和關系抽取,得到專業(yè)領域的知識經驗,從而顯式的描述和用戶期望生成摘要的語義;
特征向量初始化模塊,將異構的知識圖譜轉換為特征向量初始化表示:
s=node_encode(xs) (1)
r=relation_encode(xt) (2)
其中,實體經過node_encode函數實現特征向量化得到s,多關系屬性邊經過relation_encode實現特征向量化得到r;relation_encode函數的具體實現是,首先將輸入源x映射到one hot層,然后通過one hot層的索引到embedding層查找相對應的特征向量,如公式(3);node_encode函數實現和relation_encode函數類似,不同在于,由于實體多數情況下由若干個詞組成,所以node_encode函數在得到各個詞的特征向量表示后,還需要序列神經網絡串聯,取最后一個時刻的隱層狀態(tài)特征作為實體的特征向量表示:
relation_encode()=embedding(one_hot()) (3)
node_encode()=lstm(embedding(one_hot())) (4)
使用異構圖神經網絡將信息在實體與實體之間進行傳播,從而更新實體的特征向量表示,實現整體語義信息的融合;給定已經初始化的實體特征s,經過圖神經網絡層,得到知識圖譜的最終特征向量sgraph,如公式(5):
sgraph=graph_encode(s) (5)
其中,圖神經網絡的具體實現為,每個實體的信息都通過三元組所定義的屬性邊進行廣播,即每個實體都會聚合來自鄰居節(jié)點的信息;廣播的信息經過不同的圖注意力權重和邊信息加工,最終與實體節(jié)點信息融合,實現實體信息的更新,如公式(6):
其中,N代表節(jié)點s的一階鄰居集合,a(n,s)代表s相對于n的經過softmax的注意力權重,r是連接節(jié)點s和節(jié)點n的屬性邊的特征向量,W是可訓練的融合信息矩陣,RELU是激活函數;通過該異構圖神經網絡,步驟S1最終得到命 名實體在多關系描述下的全局語義特征,該特征為實體最終的特征向量的無序集合,如公式(7):
KG={sgraph} (7)
所述步驟S3的具體過程是:
摘要解碼器包括序列神經網絡,注意力機制和拷貝機制構成,序列神經網絡以句段為單位進行生成,輸入端為步驟S2得到的局部語義特征KGnext和步驟S1得到的全局語義特征KG;在當前句段,序列神經網絡將歷史生成文本編碼至隱藏層狀態(tài),結合當前詞的特征和當前隱藏層與全局語義特征的注意力機制,得到下一個詞的隱藏層狀態(tài)特征,如公式(11)(12):
ht=RNN([ht-1;c] (11)
c=∑s∈KGa(ht-1,s)·s (12)
其中ht為序列神經網絡的第t個隱藏層狀態(tài),c為語義向量特征,由KG中的節(jié)點s特征向量加權和得到,α(ht-1,s)為t-1時刻的隱藏層狀態(tài)和KG中的節(jié)點s的經過softmax的注意力權重;
拷貝機制,得到第t個時刻的隱藏層狀態(tài)ht后,分別經過多層感知機網絡得到拷貝概率,經過多層感知機網絡得到詞表概率分布,以及與S2模塊的知識圖譜子圖的所有節(jié)點做注意力交互得到實體概率分布,通過拷貝權重的加權,得到下一個詞的概率分布,如公式(13)(14)(15)(16):
pcopy=Wcopyht (13)
pvocab=softmax(Wvocabht) (14)
pentity=α(ht,KGnext) (15)
pword=(1-pcopy)*pvocab+pcopy*pentity (16)
摘要解碼器完成當前句段的生成后,驅動計劃機制模塊更新歷史覆蓋知識圖譜子圖和內容理解模塊,從而實現下一句段的計劃機制模塊。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中山大學,未經中山大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011495634.0/1.html,轉載請聲明來源鉆瓜專利網。





