[發(fā)明專利]一種輸入配置方法、裝置和電子設(shè)備在審
| 申請?zhí)枺?/td> | 201810443413.5 | 申請日: | 2018-05-10 |
| 公開(公告)號: | CN110472223A | 公開(公告)日: | 2019-11-19 |
| 發(fā)明(設(shè)計(jì))人: | 黃海兵;龐帥;劉羽佳 | 申請(專利權(quán))人: | 北京搜狗科技發(fā)展有限公司 |
| 主分類號: | G06F17/27 | 分類號: | G06F17/27;G06F3/023 |
| 代理公司: | 11319 北京潤澤恒知識產(chǎn)權(quán)代理有限公司 | 代理人: | 莎日娜<國際申請>=<國際公布>=<進(jìn)入 |
| 地址: | 100084 北京市海淀區(qū)中關(guān)*** | 國省代碼: | 北京;11 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 通用語言模型 候選信息 輸入信息 語言模型 匹配 個(gè)性化 輸入法 個(gè)性化需求 電子設(shè)備 全網(wǎng)用戶 輸入配置 輸入效率 記錄 | ||
本發(fā)明實(shí)施例提供了一種輸入配置方法、裝置和電子設(shè)備,其中,所述方法包括:輸入法獲取通用語言模型,記錄用戶的輸入信息,其中,所述通用語言模型依據(jù)全網(wǎng)用戶的輸入信息訓(xùn)練得到;采用所述用戶的輸入信息對所述通用語言模型進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型;依據(jù)所述個(gè)性化語言模型匹配候選信息;進(jìn)而采用個(gè)性化語言模型代替通用語言模型匹配候選信息,能夠使輸入法匹配出更符合用戶個(gè)性化需求的候選信息,提高了用戶輸入效率。
技術(shù)領(lǐng)域
本發(fā)明涉及數(shù)據(jù)處理技術(shù)領(lǐng)域,特別是涉及一種輸入配置方法、裝置和電子設(shè)備。
背景技術(shù)
隨著輸入法技術(shù)的發(fā)展,使得輸入法越來越智能化,即輸入法可以更好的理解用戶的輸入,并為用戶聯(lián)想出更為準(zhǔn)確的輸出,比如當(dāng)用戶輸入:“床前明月光”,輸入法能夠聯(lián)想出該詩句的下一句:“疑似地上霜”;進(jìn)而提高了用戶的輸入效率,降低了用戶輸入成本。其中,輸入法的智能主要是依賴于各種語言模型,比如ngram模型、神經(jīng)網(wǎng)絡(luò)語言模型等。
但是現(xiàn)有的輸入法語言模型多使用大眾化(即通用)的語言模型,大眾化模型很難實(shí)現(xiàn)個(gè)性化的輸出,比如有人問你“你知道我今年多大了嗎?”,采用大眾化模型得到的回答一般是“不知道”,但是有些用戶更喜歡使用“不曉得”或“母雞呀”等這些更具有個(gè)性化的回答;因此這些用戶無法從輸入法展示的候選信息中選取想要的信息進(jìn)行回復(fù),而需要手動(dòng)輸入。
發(fā)明內(nèi)容
本發(fā)明實(shí)施例提供一種輸入配置方法,以提高輸入效率。
相應(yīng)的,本發(fā)明實(shí)施例還提供了一種輸入配置裝置和一種電子設(shè)備,用以保證上述方法的實(shí)現(xiàn)及應(yīng)用。
為了解決上述問題,本發(fā)明實(shí)施例公開了一種輸入配置方法,具體包括:輸入法獲取通用語言模型,記錄用戶的輸入信息,其中,所述通用語言模型依據(jù)全網(wǎng)用戶的輸入信息訓(xùn)練得到;采用所述用戶的輸入信息對所述通用語言模型進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型;依據(jù)所述個(gè)性化語言模型匹配候選信息。
可選地,所述采用所述用戶的歷史輸入信息對所述通用語言模型進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型,包括:篩選出設(shè)定時(shí)間內(nèi)所述用戶的輸入信息,對所述篩選的輸入信息進(jìn)行預(yù)處理得到預(yù)處理數(shù)據(jù);將所述預(yù)處理數(shù)據(jù)輸入至所述通用語言模型中進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型。
可選地,所述對所述篩選的輸入信息進(jìn)行預(yù)處理得到預(yù)處理數(shù)據(jù),包括:對篩選的輸入信息進(jìn)行分詞,得到對應(yīng)的詞片段;依據(jù)映射關(guān)系確定各詞片段對應(yīng)的信息編號,并將所述信息編號確定為預(yù)處理數(shù)據(jù)。
可選地,所述將所述預(yù)處理數(shù)據(jù)輸入至所述通用語言模型中進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型,包括:對所述預(yù)處理數(shù)據(jù)進(jìn)行M次劃分,其中,所述預(yù)處理數(shù)據(jù)每次被劃分為N組;分別將M次劃分的N組預(yù)處理數(shù)據(jù)輸入至通用語言模型中,對通用語言模型進(jìn)行M輪訓(xùn)練得到所述用戶對應(yīng)的個(gè)性化語言模型;其中,M是小于設(shè)定閾值的正整數(shù),N為大于0的整數(shù)。
可選地,對通用語言模型進(jìn)行一輪訓(xùn)練包括:將一次劃分的N組預(yù)處理數(shù)據(jù)分別輸入至通用語言模型中,對所述通用語言模型進(jìn)行N次訓(xùn)練。
可選地,還包括:將所述通用語言模型對應(yīng)的學(xué)習(xí)率調(diào)整為目標(biāo)學(xué)習(xí)率。
可選地,所述候選信息包括以下至少一種:輸入序列對應(yīng)的候選信息、聯(lián)想候選信息、智能回復(fù)候選信息。
可選地,所述個(gè)性化語言模型包括個(gè)性化對話模型。
本發(fā)明實(shí)施例還公開了一種輸入配置裝置,具體包括:獲取模塊,用于輸入法獲取通用語言模型,記錄用戶的輸入信息,其中,所述通用語言模型依據(jù)全網(wǎng)用戶的輸入信息訓(xùn)練得到;訓(xùn)練模塊,用于采用所述用戶的輸入信息對所述通用語言模型進(jìn)行訓(xùn)練,得到所述用戶對應(yīng)的個(gè)性化語言模型;匹配模塊,用于依據(jù)所述個(gè)性化語言模型匹配候選信息。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于北京搜狗科技發(fā)展有限公司,未經(jīng)北京搜狗科技發(fā)展有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810443413.5/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 上一篇:自動(dòng)排版方法、裝置、電子設(shè)備和計(jì)算機(jī)可讀存儲介質(zhì)
- 下一篇:服務(wù)質(zhì)量的檢測方法、裝置、計(jì)算機(jī)設(shè)備和存儲介質(zhì)
- 同類專利
- 專利分類
G06F 電數(shù)字?jǐn)?shù)據(jù)處理
G06F17-00 特別適用于特定功能的數(shù)字計(jì)算設(shè)備或數(shù)據(jù)處理設(shè)備或數(shù)據(jù)處理方法
G06F17-10 .復(fù)雜數(shù)學(xué)運(yùn)算的
G06F17-20 .處理自然語言數(shù)據(jù)的
G06F17-30 .信息檢索;及其數(shù)據(jù)庫結(jié)構(gòu)
G06F17-40 .數(shù)據(jù)的獲取和記錄
G06F17-50 .計(jì)算機(jī)輔助設(shè)計(jì)
- 遵循通用網(wǎng)論的Petri網(wǎng)模型與語用語言的解析方法
- 一種基于用戶輸入場景動(dòng)態(tài)加載語言模型的方法及裝置
- 一種語言模型的訓(xùn)練方法及裝置、設(shè)備
- 一種語言模型建立方法及裝置
- 一種輸入配置方法、裝置和電子設(shè)備
- 語音識別網(wǎng)絡(luò)的可視化生成方法、系統(tǒng)及平臺
- 解碼網(wǎng)絡(luò)構(gòu)建方法、語音識別方法、裝置、設(shè)備及存儲介質(zhì)
- 語音喚醒模型的生成方法、裝置和電子設(shè)備
- 語音處理方法及電子設(shè)備
- 語言模型的訓(xùn)練方法、語音識別方法、裝置及電子設(shè)備
- 用于語言模型切換和自適應(yīng)的裝置和方法
- 群集系統(tǒng)、方法、程序和使用群集系統(tǒng)的屬性估計(jì)系統(tǒng)
- 一種建立用于語音識別的語言模型的方法及裝置
- 語言模型訓(xùn)練系統(tǒng)、語音識別系統(tǒng)及相應(yīng)方法
- 一種語言模型的訓(xùn)練方法及裝置、設(shè)備
- 對象的模型生成方法、裝置、設(shè)備及存儲介質(zhì)
- 一種多種語言模型的文本轉(zhuǎn)換方法及裝置
- 跨領(lǐng)域語言模型訓(xùn)練方法、裝置、電子設(shè)備及存儲介質(zhì)
- 多語言模型的訓(xùn)練方法和裝置、存儲介質(zhì)和電子設(shè)備
- 語言模型的訓(xùn)練方法、語音識別方法、裝置及電子設(shè)備





