[發(fā)明專利]文本分類模型的訓(xùn)練方法、裝置、存儲介質(zhì)及計算機設(shè)備有效
| 申請?zhí)枺?/td> | 202010190582.X | 申請日: | 2020-03-18 |
| 公開(公告)號: | CN111522942B | 公開(公告)日: | 2023-09-22 |
| 發(fā)明(設(shè)計)人: | 林連升 | 申請(專利權(quán))人: | 大箴(杭州)科技有限公司 |
| 主分類號: | G06F16/35 | 分類號: | G06F16/35;G06F40/279 |
| 代理公司: | 北京中強智尚知識產(chǎn)權(quán)代理有限公司 11448 | 代理人: | 黃耀威;賈依嬌 |
| 地址: | 310000 浙江省*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 文本 分類 模型 訓(xùn)練 方法 裝置 存儲 介質(zhì) 計算機 設(shè)備 | ||
本申請公開了一種文本分類模型的訓(xùn)練方法、裝置、存儲介質(zhì)及計算機設(shè)備,該方法包括:對第一文本樣本進行聚類,得到至少一個第一文本簇;基于從每個所述第一文本簇中分別獲取的第一預(yù)設(shè)數(shù)量的所述第一文本樣本,獲取每個所述第一文本簇對應(yīng)的文本標簽;分別從每個所述第一文本簇中獲取第二預(yù)設(shè)數(shù)量的所述第一文本樣本作為第一訓(xùn)練樣本;基于所述第一訓(xùn)練樣本及其對應(yīng)的文本標簽建立第一訓(xùn)練集,訓(xùn)練文本分類模型。本申請通過對文本進行聚類,減少標注量的同時,提高了模板的覆蓋率,大大提升了標注效率,也提升了模型效果。
技術(shù)領(lǐng)域
本申請涉及文本分類技術(shù)領(lǐng)域,尤其是涉及到一種文本分類模型的訓(xùn)練方法、裝置、存儲介質(zhì)及計算機設(shè)備。
背景技術(shù)
自然語言處理的文本分類任務(wù),需要大量的標注文本來訓(xùn)練分類模型。在現(xiàn)有技術(shù)的數(shù)據(jù)標注系統(tǒng)、平臺或者方法中,均采取對數(shù)據(jù)抽樣,再進行標注,然后再將標注數(shù)據(jù)用于訓(xùn)練模型。結(jié)合訓(xùn)練結(jié)果,再進行下一輪的標注,訓(xùn)練,調(diào)優(yōu)。對于大規(guī)模短信分類任務(wù),其特點是,短信的文本數(shù)量巨大,模板種類繁多且每天分布不均,若采用直接抽樣的方法,主要會造成兩個問題,一是模板的覆蓋率低,二是落到每個類目的數(shù)據(jù)量存在偏差,這給文本標注和模型訓(xùn)練造成巨大的困難。此外,由于每天的短信模板存在一定差異,用固定某些天的標注數(shù)據(jù)訓(xùn)練的模型,無法泛化到所有未見過的短信模板。
發(fā)明內(nèi)容
有鑒于此,本申請?zhí)峁┝艘环N文本分類模型的訓(xùn)練方法、裝置、存儲介質(zhì)及計算機設(shè)備,通過對文本進行聚類,減少標注量的同時,提高了模板的覆蓋率,大大提升了標注效率,也提升了模型效果。
根據(jù)本申請的一個方面,提供了一種文本分類模型的訓(xùn)練方法,所述方法包括:
對第一文本樣本進行聚類,得到至少一個第一文本簇;
基于從每個所述第一文本簇中分別獲取的第一預(yù)設(shè)數(shù)量的所述第一文本樣本,獲取每個所述第一文本簇對應(yīng)的文本標簽;
分別從每個所述第一文本簇中獲取第二預(yù)設(shè)數(shù)量的所述第一文本樣本作為第一訓(xùn)練樣本;
基于所述第一訓(xùn)練樣本及其對應(yīng)的文本標簽建立第一訓(xùn)練集,訓(xùn)練文本分類模型。
具體地,所述訓(xùn)練文本分類模型之后,所述方法還包括:
對第N文本樣本進行聚類,得到至少一個第N文本簇,N≥2;
分別從每個所述第N文本簇中獲取第三預(yù)設(shè)數(shù)量的所述第N文本樣本;
利用所述文本分類模型對從所述第N文本簇中獲取的所述第N文本樣本分類,得到所述第N文本樣本對應(yīng)的預(yù)測標簽,并校驗所述預(yù)測標簽的準確性;
在所述預(yù)測標簽準確時,利用所述預(yù)測標簽標注所述第N文本樣本對應(yīng)的所述第N文本簇。
具體地,所述校驗所述預(yù)測標簽的準確性之后,所述方法還包括:
在所述預(yù)測標簽不準確時,獲取所述第N文本樣本對應(yīng)的實際標簽;
若所述文本標簽包括所述實際標簽,則從相應(yīng)的所述第N文本簇中獲取第四預(yù)設(shè)數(shù)量的所述第N文本樣本;
基于所述第N文本樣本及其對應(yīng)的文本標簽以及第N-1訓(xùn)練集建立第N訓(xùn)練集,訓(xùn)練所述文本分類模型。
具體地,所述從相應(yīng)的所述第N文本簇中獲取第四預(yù)設(shè)數(shù)量的所述第N文本樣本之前,所述方法還包括:
若所述文本標簽包括所述實際標簽,則基于相應(yīng)的所述文本標簽以及所述文本標簽對應(yīng)的文本簇,確定所述文本標簽是否標注正確;
若所述文本標簽標注錯誤,則糾正標注錯誤的所述文本標簽;
若所述文本標簽標注正確,則執(zhí)行所述從相應(yīng)的所述第N文本簇中獲取第四預(yù)設(shè)數(shù)量的所述第N文本樣本。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于大箴(杭州)科技有限公司,未經(jīng)大箴(杭州)科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010190582.X/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





