[發(fā)明專利]一種基于seq2seq+attention的中文文本糾錯(cuò)方法在審
| 申請(qǐng)?zhí)枺?/td> | 201811441697.0 | 申請(qǐng)日: | 2018-11-29 |
| 公開(公告)號(hào): | CN109614612A | 公開(公告)日: | 2019-04-12 |
| 發(fā)明(設(shè)計(jì))人: | 李石君;鄧永康;楊濟(jì)海;余偉;余放;李宇軒 | 申請(qǐng)(專利權(quán))人: | 武漢大學(xué) |
| 主分類號(hào): | G06F17/27 | 分類號(hào): | G06F17/27;G06F17/22;G06N3/04;G06N3/08 |
| 代理公司: | 武漢科皓知識(shí)產(chǎn)權(quán)代理事務(wù)所(特殊普通合伙) 42222 | 代理人: | 魯力 |
| 地址: | 430072 湖*** | 國(guó)省代碼: | 湖北;42 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 糾錯(cuò) 神經(jīng)網(wǎng)絡(luò)模型 中文文本 模型訓(xùn)練 重新設(shè)計(jì) 構(gòu)建 通信設(shè)備 檢修 文本 記錄 應(yīng)用 優(yōu)化 研究 | ||
1.一種基于seq2seq+attention的中文文本糾錯(cuò)方法,其特征在于,包括以下步驟:
步驟1,文本預(yù)處理:首先基于python讀取數(shù)據(jù)庫中的檢修記錄,提取文檔文件中的所有內(nèi)容,然后利用正則表達(dá)式進(jìn)行中文分句操作,將結(jié)果存入文本文件中,每一行對(duì)應(yīng)一個(gè)句子,同時(shí)將人工標(biāo)注的正確文本存入另一個(gè)文本文件中,和原始文件一一對(duì)應(yīng);記錄下電力通信領(lǐng)域中的專有符號(hào),和常見的漢字表共同組成字符表;
步驟2,構(gòu)建基于attention的seq2seq神經(jīng)網(wǎng)絡(luò)模型,具體包括:
步驟2.1,構(gòu)建Encoder模塊層,包括Embedding Layer和M層雙向LSTM,其中:
層一、Embedding Layer的輸入為當(dāng)前字符的one-hot編碼,one-hot編碼可以根據(jù)步驟1中形成的字符表得到;Embedding Layer的輸出為當(dāng)前字符的字向量即:
et=ET·xt
其中xt是t時(shí)刻輸入字符的one-hot編碼,是v維列向量,v是步驟1得到的字符表中的字符總數(shù);E是字符向量矩陣,是v×d維矩陣,在具體實(shí)現(xiàn)過程中,d取100-200之間的數(shù)字,d代表每一個(gè)字符向量的維度,矩陣E是模型的參數(shù),通過訓(xùn)練得到;et是t時(shí)刻輸入字符的字向量;
在具體實(shí)現(xiàn)過程中,使用TensorFlow中tf.nn.embedding_lookup函數(shù),得到字符向量;
層二、M層雙向LSTM中的基本單元是LSTM,第j層t時(shí)刻LSTM的隱藏狀態(tài)計(jì)算公式如下:
其中,初始化為零向量,函數(shù)σ(x)=1/(1+e-x),函數(shù)tanh(x)=(ex-e-x)/(ex+e-x),均是模型參數(shù),通過訓(xùn)練獲得,⊙表示對(duì)應(yīng)元素相乘;
基于LSTM的計(jì)算公式得到:從前往后傳播的隱藏狀態(tài)向量從后往前傳播的隱藏狀態(tài)向量則在第j層t時(shí)刻,Bi-LSTM的輸出為
在具體實(shí)現(xiàn)過程中,可以使用TensorFlow中的函數(shù)BasicLSTMCell來實(shí)現(xiàn);
步驟2.2,構(gòu)建Decoder模塊層,Decoder模塊層是一個(gè)M層單向LSTM語言模型結(jié)構(gòu),每一層初始狀態(tài)向量均來自Encoder;代表Decoder第M層的輸出,經(jīng)過softmax變換,得到每個(gè)字符的概率,計(jì)算公式如下:
計(jì)算損失函數(shù):
其中,yt是one-hot編碼,代表t時(shí)刻輸出的字符,P是輸出序列長(zhǎng)度;
步驟2.3,構(gòu)建attention模塊層:在Encoder模塊層中得到最后一層所有時(shí)刻的隱藏狀態(tài)向量Q為輸入字符的總數(shù);在Decoder模塊中得到第一層t-1時(shí)刻的隱藏狀態(tài)向量attention向量的計(jì)算公式如下:
α=softmax(w)
在計(jì)算Decoder模塊層中t時(shí)刻每一層的隱藏狀態(tài)向量時(shí),加入β;
步驟3,采用Adam優(yōu)化方法進(jìn)行模型訓(xùn)練:神經(jīng)網(wǎng)絡(luò)模型構(gòu)建成功之后,數(shù)據(jù)從輸入到輸出的整個(gè)流程,以TensorFlow中計(jì)算圖的形式存在,直接利用tf.train.AdamOptimizer().minimize()進(jìn)行迭代訓(xùn)練,找到參數(shù)最優(yōu)值;
步驟4,進(jìn)行糾錯(cuò)任務(wù),具體是:
在Decoder階段,采用beam search進(jìn)行推斷過程,beam size為2,每次挑選兩個(gè)概率最高的字符,作為下一次預(yù)測(cè)的輸入,遇見終止符<EOS>時(shí),停止推斷,得到輸出序列。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于武漢大學(xué),未經(jīng)武漢大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811441697.0/1.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 上一篇:一種融合生成非對(duì)抗網(wǎng)絡(luò)與卷積神經(jīng)網(wǎng)絡(luò)的情感分析方法
- 下一篇:圖像的描述語句定位方法及裝置、電子設(shè)備和存儲(chǔ)介質(zhì)
- 同類專利
- 專利分類
G06F 電數(shù)字?jǐn)?shù)據(jù)處理
G06F17-00 特別適用于特定功能的數(shù)字計(jì)算設(shè)備或數(shù)據(jù)處理設(shè)備或數(shù)據(jù)處理方法
G06F17-10 .復(fù)雜數(shù)學(xué)運(yùn)算的
G06F17-20 .處理自然語言數(shù)據(jù)的
G06F17-30 .信息檢索;及其數(shù)據(jù)庫結(jié)構(gòu)
G06F17-40 .數(shù)據(jù)的獲取和記錄
G06F17-50 .計(jì)算機(jī)輔助設(shè)計(jì)
- 一種對(duì)神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練的方法、裝置及電子設(shè)備
- 一種神經(jīng)網(wǎng)絡(luò)模型壓縮方法以及裝置
- 姿態(tài)檢測(cè)方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于無標(biāo)簽數(shù)據(jù)的神經(jīng)網(wǎng)絡(luò)模型量化方法及裝置
- 神經(jīng)網(wǎng)絡(luò)模型更新方法、圖像處理方法及裝置
- 含有聚類拓?fù)漶詈系纳窠?jīng)網(wǎng)絡(luò)脈沖同步方法及系統(tǒng)
- 一種神經(jīng)網(wǎng)絡(luò)模型的部署方法、設(shè)備及介質(zhì)
- 神經(jīng)網(wǎng)絡(luò)模型的優(yōu)化方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于框架搜索的深度神經(jīng)網(wǎng)絡(luò)的加速與壓縮方法及系統(tǒng)
- 一種神經(jīng)網(wǎng)絡(luò)模型生成方法及裝置
- 一種基于深度學(xué)習(xí)的中文語義分析的方法及裝置
- 手寫模型訓(xùn)練方法、文本識(shí)別方法、裝置、設(shè)備及介質(zhì)
- 用于獲取中文文本要義的方法和裝置
- 一種文本的分詞方法及分詞裝置
- 一種文本處理方法及裝置
- 一種轉(zhuǎn)換中文、英文語言的信息溝通方法及電子設(shè)備
- 結(jié)合RPA與AI的文本標(biāo)注方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 一種融入偏旁語義的中文文本分類方法
- 中文文本的自動(dòng)糾錯(cuò)方法、裝置、設(shè)備以及存儲(chǔ)介質(zhì)
- 一種基于多核雙層卷積神經(jīng)網(wǎng)絡(luò)的中文文本情緒分類方法
- 自動(dòng)化的模型訓(xùn)練方法、裝置、設(shè)備及介質(zhì)
- 變換模型訓(xùn)練方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 信息處理裝置和方法以及利用模型分類的裝置
- 一種模型訓(xùn)練的方法和裝置
- 模型訓(xùn)練方法、模型訓(xùn)練裝置和實(shí)體抽取方法
- 選擇模型訓(xùn)練方法、模型選擇方法、裝置及電子設(shè)備
- 模型訓(xùn)練方法及裝置
- 模型的訓(xùn)練方法、模型的預(yù)測(cè)方法以及模型的控制系統(tǒng)
- 一種模型生成及電池劣化推測(cè)裝置、方法、介質(zhì)及設(shè)備
- 模型訓(xùn)練方法、模型訓(xùn)練平臺(tái)、電子設(shè)備和存儲(chǔ)介質(zhì)





