[發明專利]基于Transformer的土木建筑信息領域自然語言問題生成方法有效
| 申請號: | 202011249217.8 | 申請日: | 2020-11-10 |
| 公開(公告)號: | CN112559702B | 公開(公告)日: | 2022-09-30 |
| 發明(設計)人: | 朱磊;焦瑞;黑新宏;趙欽;楊明松;姚燕妮;彭偉;董林靖 | 申請(專利權)人: | 西安理工大學 |
| 主分類號: | G06F16/332 | 分類號: | G06F16/332;G06F16/35;G06N3/08 |
| 代理公司: | 西安弘理專利事務所 61214 | 代理人: | 寧文濤 |
| 地址: | 710048 陜*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 transformer 土木 建筑 信息 領域 自然語言 問題 生成 方法 | ||
1.基于Transformer的土木建筑信息領域自然語言問題生成方法,包括以下步驟:
步驟1:維基百科開放域文本的預訓練;構建基于Transformer的12層堆疊模塊,對中文維基百科文本公開語料進行人工預處理,形成上下句形式的統一結構,然后將處理好的維基百科語料輸入進入模型進行模型預訓練;
步驟2:土木建筑信息領域文本的預訓練;取出第一步預訓練的模型參數,然后對互聯網上獲取的土木建筑信息文本語料進行二次預訓練,獲取領域知識;
步驟3:隨機采樣語料的編碼訓練;為了使得模型獲取句法和語法生成能力,本方法采集了開放域問答文本數據,并設計了對開放域問答和土木建筑問答數據的隨機采樣機制;不同的采樣結果將通過嵌入方式輸入到Transformer的不同層次模塊中進行分層訓練;
步驟4:訓練優化與解碼文本生成;在訓練優化階段,對于不同類型的采樣數據,模型將取出不同層的Transformer模塊進行梯度計算并反傳優化;優化后的模型用于生成自然語言問題的推斷,推斷采用了beam search技術;
所述步驟3中,嵌入方式包括了Token詞嵌入、段嵌入和位置嵌入;在嵌入編碼時采用了UniLM的遮蓋詞策略,目的是提升模型的自然語言生成能力;
所述步驟3中,模型設計采用了12層UniLM思想的Transformer堆疊結構;
具體地,對給定輸入序列{
在模型的每一層中,前一層輸出為
2.根據權利要求1所述的基于Transformer的土木建筑信息領域自然語言問題生成方法,其特征在于,所述步驟1和步驟2中,文本標記的方法,采用BERT模型的文本標記方法;預訓練階段采用同Bert相同的雙向遮蓋預訓練機制和下半句預測訓練機制。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安理工大學,未經西安理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011249217.8/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種數據梳理的技術
- 下一篇:一種柔性釹鐵硼磁體及其制備方法和應用
- 基于Transformer+LSTM神經網絡模型的商品銷量預測方法及裝置
- 一種基于Transformer模型自然場景文字識別方法
- 一種深度Transformer級聯神經網絡模型壓縮算法
- 點云分割方法、系統、介質、計算機設備、終端及應用
- 基于Transformer的中文智能對話方法
- 一種基于改進Transformer模型的飛行器故障診斷方法和系統
- 一種基于Transformer模型的機器翻譯模型優化方法
- 基于Transformer和增強交互型MPNN神經網絡的小分子表示學習方法
- 基于U-Transformer多層次特征重構的異常檢測方法及系統
- 基于EfficientDet和Transformer的航空圖像中的飛機檢測方法





