[發明專利]語音聊天協同處理方法及裝置在審
| 申請號: | 202010588474.8 | 申請日: | 2020-06-24 |
| 公開(公告)號: | CN111754990A | 公開(公告)日: | 2020-10-09 |
| 發明(設計)人: | 楊文龍 | 申請(專利權)人: | 楊文龍 |
| 主分類號: | G10L15/18 | 分類號: | G10L15/18;G10L15/183;G10L15/22;G10L15/26;G10L21/0208;G10L21/0216;H04N7/15;G06F40/30;G06K9/00 |
| 代理公司: | 北京酷愛智慧知識產權代理有限公司 11514 | 代理人: | 向霞 |
| 地址: | 201611 上海市松*** | 國省代碼: | 上海;31 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 語音 聊天 協同 處理 方法 裝置 | ||
1.一種語音聊天協同處理方法,其特征在于,包括:
在會議過程中,實時獲取外界語音數據;
采用對話系統模型對所述外界語音數據進行處理,以獲取對話文本數據;
將所述對話文本數據和語音轉文字的歷史對話文本數據進行相關性比較,以得到比較結果;
根據所述比較結果對所述外界語音數據進行過濾處理或調低音量處理,并將對所述外界語音數據過濾或調低音量的處理結果顯示于用戶界面。
2.如權利要求1所述的語音聊天協同處理方法,其特征在于,實時獲取外界語音數據之前,所述方法還包括:
獲取用戶語音輸入數據和用戶圖像數據;
將所述用戶語音輸入數據送入語音識別模塊進行識別;
根據所述用戶圖像數據判斷用戶當前是否為發言狀態;
若用戶當前不為發言狀態,則得出所述用戶語音輸入數據為背景雜音,采用自動降噪法自動過濾所述用戶語音數據;所述背景雜音包括咳嗽聲、貓狗叫聲和打噴嚏聲;
若用戶當前為發言狀態,且判斷所述用戶語音輸入數據是否為自然語言;
若為自然語言,則實時獲取外界語音數據;
若不為自然語言,但通過語義場景模塊檢測判斷出所述用戶語音輸入數據與當前對話有關聯,則實時獲取外界語音數據;
若不為自然語言,且通過語義場景模塊檢測判斷出所述用戶語音輸入數據與當前對話無關聯,則得出所述用戶語音輸入數據為背景雜音,采用自動降噪法自動過濾所述用戶語音輸入數據。
3.如權利要求2所述的語音聊天協同處理方法,其特征在于,采用對話系統模型對所述外界語音數據進行處理之前,所述方法還包括:
啟動延遲計時器,將所述外界語音數據轉換為當前文字;
若所述當前文字是起始詞,則不過濾所述外界語音數據;
若所述當前文字不是起始詞,則判斷所述當前文字是否已經識別出、或者預測出預設字數以上、或者所述當前文字的持續時間超出最大可延遲時間;
若所述當前文字未識別出、或者未預測出預設字數以上、或者所述當前文字的持續時間未超出最大可延遲時間,則獲取當前參與者的過濾可能性估計結果,并根據所述過濾可能性估計結果調低所述外界語音數據;
若所述當前文字已經識別出、或者預測出預設字數以上、或者所述當前文字的持續時間超出最大可延遲時間,則采用對話系統模型對所述外界語音數據進行處理。
4.如權利要求3所述的語音聊天協同處理方法,其特征在于,所述方法包括根據當前參與者在本次及有記載的歷史會議中實際被過濾的次數,獲取所述當前參與者的過濾可能性估計結果;其中,所述當前參與者對應于所述外界語音數據。
5.一種語音聊天協同處理方法,其特征在于,包括:
獲取第一用戶的第一語音數據,并對所述第一語音數據進行處理以得到處理結果;
在會議過程中,當所述處理結果為所述第一用戶的正常發言時,實時獲取第二用戶的第二語音數據,并將所述第二語音數據轉換為當前文字;
若所述當前文字不是起始詞,且所述當前文字未識別出、或者未預測出預設字數以上、或者所述當前文字的持續時間未超出最大可延遲時間,則獲取當前參與者的過濾可能性估計結果,并根據所述過濾可能性估計結果調低所述第二語音數據;
若所述當前文字不是起始詞,且所述當前文字已經識別出、或者預測出預設字數以上、或者所述當前文字的持續時間超出最大可延遲時間,則采用語義關聯模型對所述第二語音數據進行處理。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于楊文龍,未經楊文龍許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010588474.8/1.html,轉載請聲明來源鉆瓜專利網。





