[發(fā)明專利]一種基于集中注意力模型的實體、關(guān)系聯(lián)合學(xué)習(xí)方法有效
| 申請?zhí)枺?/td> | 201910767329.3 | 申請日: | 2019-08-20 |
| 公開(公告)號: | CN110570920B | 公開(公告)日: | 2023-07-14 |
| 發(fā)明(設(shè)計)人: | 翟潔;薛魁;張歡歡;葉琪;阮彤;周揚名;馬致遠 | 申請(專利權(quán))人: | 華東理工大學(xué) |
| 主分類號: | G16H15/00 | 分類號: | G16H15/00;G06F40/289 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 200237 *** | 國省代碼: | 上海;31 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 集中 注意力 模型 實體 關(guān)系 聯(lián)合 學(xué)習(xí)方法 | ||
1.一種基于集中注意力模型的實體、關(guān)系聯(lián)合學(xué)習(xí)方法,其特征在于,包括以下步驟:
A1,臨床文本序列S的首尾分別加上[CLS]和[SEP],以[CLS]Sequence[SEP]的形式輸入Embedding層,輸出序列S中每個字的由字編碼、位置編碼、類型編碼組成的初始向量表示H0,其表示為:
H0=LayerNorm(e_word(S)+e_pos(S)+e_type(S))
其中,S為輸入的臨床文本序列,e_word,e_pos,e_type分別表示字編碼、位置編碼、類型編碼函數(shù);
A2,限定參數(shù)N、K的含義,N為多頭自注意層的層數(shù),N多頭自注意層分為兩塊,N-K為前一塊的層數(shù),K為后一塊的層數(shù),將向量表示H0輸入多頭注意力機制的前N-K層,注意力均勻地分布在每個字上,多頭注意力只捕獲上下文信息,第m層依據(jù)前一層的輸出Hm-1得到輸出Hm,Hm的表示如下,
Hm=LayerNorm(Hm’+PosFF(Hm’))
其中Hm’的表示如下,
Hm’=LayerNorm(Hm-1+MultHeadSelfAttentionh=12(Hm-1,MASKall))
其中MASKall∈{1}T×T表示每個字利用序列中其他字的信息計算注意力,T表示序列的長度,
經(jīng)過N-K層的迭代后獲得每個字的上下文表示信息Hm;
A3,將每個字的上下文表示信息Hm輸入多頭自注意力機制的余下K層,特定于任務(wù)的矩陣MASKtask將注意力集中到任務(wù)所需的字上,得到對應(yīng)實體識別和關(guān)系抽取任務(wù)的字向量表示
A4,輸入字向量表示利用矩陣MASKtask、實體識別下游任務(wù)層、關(guān)系分類下游任務(wù)層進行聯(lián)合學(xué)習(xí)后,輸出識別的實體信息和抽取的關(guān)系信息。
2.根據(jù)權(quán)利要求1所述的一種基于集中注意力模型的實體、關(guān)系聯(lián)合學(xué)習(xí)方法,其特征在于:在所述步驟A3中,將每個字的上下文表示信息Hm輸入多頭自注意力機制的余下K層,特定于任務(wù)的矩陣MASKtask由動態(tài)范圍注意力機制設(shè)定,MASKtask將注意力集中到任務(wù)所需的字上,第m層依據(jù)前一層的輸出得到輸出的表示如下,
其中task∈{ner,rc},
經(jīng)過K層的迭代后獲得對應(yīng)任務(wù)的字向量表示
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于華東理工大學(xué),未經(jīng)華東理工大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910767329.3/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





