[發明專利]文本意圖識別方法、裝置、設備和存儲介質在審
| 申請號: | 202010033742.X | 申請日: | 2020-01-13 |
| 公開(公告)號: | CN111221944A | 公開(公告)日: | 2020-06-02 |
| 發明(設計)人: | 李小娟;徐國強 | 申請(專利權)人: | 平安科技(深圳)有限公司 |
| 主分類號: | G06F16/33 | 分類號: | G06F16/33;G06F16/35;G06F16/332;G06F40/30;G06N3/04 |
| 代理公司: | 北京市京大律師事務所 11321 | 代理人: | 劉挽瀾 |
| 地址: | 518033 廣東省深圳市福田區福*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 文本 意圖 識別 方法 裝置 設備 存儲 介質 | ||
1.一種文本意圖識別方法,其特征在于,所述方法包括:
獲取待處理的文本信息以及數據庫所存儲的多個標準句子;
計算所述多個待處理的文本信息的特征值以及獲取所述數據庫所存儲的多個標準句子的特征值;
通過所述多個標準句子的特征值以及獲取所述待處理的文本信息的特征值計算多個第一相似度,得到第一相似度集合;
提取所述第一相似度集合中最大的所述第一相似度,得到第一目標相似度;
判斷所述第一目標相似度是否小于閾值;
若所述第一目標相似度小于閾值,則將所述多個標準句子的特征值以及所述待處理的文本信息的特征值輸入至目標神經網絡模型,通過所述目標神經網絡模型輸出第二相似度集合,所述目標神經網絡模型為長短期記憶模型、注意力模型、雙向長短期記憶BiLSTM模型以及軟最大值Softmax層串聯而成的神經網絡;
通過提取所述第二相似度集合中的元素,得到用戶的最終意圖。
2.根據權利要求1所述的方法,其特征在于,所述若所述第一目標相似度小于閾值,則將所述多個標準句子的特征值以及所述待處理的文本信息的特征值輸入至目標神經網絡模型,通過所述目標神經網絡模型輸出第二相似度集合,包括:
獲取所述待處理的文本信息以及所述數據庫所存儲的多個標準句子,得到第一矩陣a以及第二矩陣b的集合;
分別將每個所述第二矩陣b與所述第一矩陣a組合成輸入信息,將所述輸入信息輸入至第一神經網絡,得到多個所述第一神經網絡的第一輸出矩陣和所述第一神經網絡的第二輸出矩陣所述第一神經網絡模型是指長短期記憶模型;
將所述多個和輸入至第二神經網絡模型,得到所述第二神經網絡的第一輸出矩陣和所述第二神經網絡的第二輸出矩陣所述第二神經網絡模型是指注意力Attention模型;
將和組合成集合ma和集合mb,所述ma為所述mb為
將所述多個集合ma以及對應的集合mb依次輸入至第三神經網絡模型,通過所述第三神經網絡模型輸出得到ma對應的概率va和對應的概率vb,所述第三神經網絡模型為BiLSTM模型;
將va和vb依次輸入池化層,得到第二相似度集合v,所述池化層包括最大池化層以及平均池化層,所述v為{va,vue,va,max,vb,vue,vb,max}。
3.根據權利要求1所述的方法,其特征在于,所述通過所述多個標準句子的特征值以及所述待處理的文本信息的特征值計算多個第一相似度,并提取最大的所述第一相似度,得到第一目標相似度,包括:
獲取所述多個待處理文本信息中每一個詞匯的特征值以及所述多個標準句子的特征值;
通過所述多個待處理文本信息中每一個詞匯的特征值將所述多個待處理文本信息映射成多個第一向量;
通過所述多個標準句子的特征值將所述數據庫所存儲的多個標準句子映射成多個第二向量;
通過計算每一個所述第一向量與所述多個第二向量之間的所述第一相似度,得到多個所述第一相似度;
將所述多個第一相似度按照數值從大到小排序,并提取數值最大的所述第一相似度作為所述第一目標相似度。
4.根據權利要求1所述的方法,其特征在于,所述計算所述多個待處理的文本信息的特征值以及獲取所述數據庫所存儲的多個標準句子的特征值,包括:
通過計算文檔詞頻,所述xa為詞匯在所述待處理文本信息中出現的次數,所述xb為所述待處理的文本信息的詞數;
通過計算逆文檔詞頻,所述ya為數據庫所存儲的句子總數,所述yb為數據庫所存儲包含所述詞匯的句子數;
通過TFIDF=TF*IDF計算所述多個待處理文本信息中每一個詞匯的特征值以及獲取所述多個標準句子的特征值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于平安科技(深圳)有限公司,未經平安科技(深圳)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010033742.X/1.html,轉載請聲明來源鉆瓜專利網。





