[發(fā)明專利]基于預訓練模型的人稱代詞消解方法有效
| 申請?zhí)枺?/td> | 202110733081.6 | 申請日: | 2021-06-29 |
| 公開(公告)號: | CN113392629B | 公開(公告)日: | 2022-10-28 |
| 發(fā)明(設計)人: | 張偉男;張家樂;趙正宇;劉挺 | 申請(專利權)人: | 哈爾濱工業(yè)大學 |
| 主分類號: | G06F40/211 | 分類號: | G06F40/211;G06F40/284;G06F40/295;G06N3/04;G06N3/08 |
| 代理公司: | 哈爾濱華夏松花江知識產(chǎn)權代理有限公司 23213 | 代理人: | 岳昕 |
| 地址: | 150001 黑龍*** | 國省代碼: | 黑龍江;23 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 訓練 模型 人稱 代詞 消解 方法 | ||
1.基于預訓練模型的人稱代詞消解方法,其特征在于包括以下步驟:
步驟一:利用預訓練模型對待消解文本上下文進行建模,得到上下文相關的字向量;
步驟二:對于存在代詞的句子,將該句子以及該句子之前內容中的人名和最大名詞片段進行識別,并將識別結果作為候選先行詞,所述最大名詞片段為連續(xù)名詞的拼接;
步驟三:將代詞和候選先行詞進行編碼得到代詞的文本片段向量和候選先行詞的文本片段向量,然后將代詞的文本片段向量和候選先行詞的文本片段向量分別與設定的長度特征拼接得到代詞的向量及候選先行詞的向量;
步驟四:根據(jù)上下文相關的字向量得到候選先行詞的字向量,然后利用候選先行詞的字向量以及代詞的文本片段表示得到期望先行詞的向量,最后將期望先行詞的向量、代詞的向量以及候選先行詞的向量拼接后,通過前饋神經(jīng)網(wǎng)絡進行消解打分,其中,期望先行詞的表示具體為:
αt=ωα·FFNNα(xt,mp)
mexp表示期望先行詞的表示,mp表示照應詞的表示,表示該代詞所有的候選先行詞,START(i)和END(i)表示第i個候選先行詞的開始位置和終止位置,αi,t表示歸一化之后權重,αt表示權重因子,ωα是需要訓練的參數(shù),αk表示候選先行詞的權重,xt表示字向量,消解打分具體為:
scorei=FFNN([mp,mi,mp*mi,mexp])
mp表示代詞的編碼,mi表示第i個先行詞的編碼,mexp表示期望先行詞表示,*表示向量的元素乘,對三部分向量進行連接構成最后消解對的表示,F(xiàn)FNN表示前饋神經(jīng)網(wǎng)絡,用來獲取最終的消解打分;
步驟五:取消解打分最高的候選先行詞作為消解對象進行消解。
2.根據(jù)權利要求1所述的基于預訓練模型的人稱代詞消解方法,其特征在于所述預訓練模型為BERT或SpanBert。
3.根據(jù)權利要求1所述的基于預訓練模型的人稱代詞消解方法,其特征在于所述上下文表示為:
Context=(w1,w2,w3,...,wn)
其中,w表示文字,n表示序號。
4.根據(jù)權利要求3所述的基于預訓練模型的人稱代詞消解方法,其特征在于所述上下文相關的字向量表示為:
(x1,x2,x3..,xp...,xn)=PretrainModel(w1,w2,w3..,wp...,wn)
其中,xp表示字向量。
5.根據(jù)權利要求4所述的基于預訓練模型的人稱代詞消解方法,其特征在于所述步驟三中將代詞或候選先行詞進行編碼的方法為:
首先,根據(jù)預訓練模型得到實體片段上的編碼START(i),...,END(i),然后在開始位置添加一個可訓練的向量表示xpr,使用一層或多層Transformer對實體片段進行編碼,選擇最后一層的xpr的隱狀態(tài)作為實體文本片段的編碼表示;
對于xpr的值,首先進行隨機初始化,之后在訓練過程中通過反向傳播進行學習,具體表示為:
Transformer(xpr,START(i),...,END(i))。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于哈爾濱工業(yè)大學,未經(jīng)哈爾濱工業(yè)大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110733081.6/1.html,轉載請聲明來源鉆瓜專利網(wǎng)。





