[發明專利]一種基于彈幕的視頻高光片段識別方法、終端及存儲介質有效
| 申請號: | 202010732044.9 | 申請日: | 2020-07-27 |
| 公開(公告)號: | CN111770357B | 公開(公告)日: | 2021-06-01 |
| 發明(設計)人: | 盧亞輝;林浩星;王輝 | 申請(專利權)人: | 深圳大學 |
| 主分類號: | H04N21/2187 | 分類號: | H04N21/2187;H04N21/4788;H04N21/488;G06F40/30 |
| 代理公司: | 深圳市君勝知識產權代理事務所(普通合伙) 44268 | 代理人: | 陳專 |
| 地址: | 518060 廣東*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 彈幕 視頻 片段 識別 方法 終端 存儲 介質 | ||
本發明公開了一種基于彈幕的視頻高光片段識別方法、終端及存儲介質,本發明通過獲取視頻片段中的彈幕對應的語義向量,并根據彈幕的語義向量獲取視頻片段的語義向量,根據視頻片段的語義向量確定該視頻片段是否為高光片段,實現了對視頻中的高光片段的自動識別,不需要進行人工識別,提升了高光片段的識別效率。
技術領域
本發明涉及終端技術領域,特別涉及一種基于彈幕的視頻高光片段識別方法、終端及存儲介質。
背景技術
視頻的高光片段是指一段視頻中精彩的片段,視頻中的高光片段便于觀看,傳播效率顯然大大高于整個視頻的傳播效率,因此,將視頻中的高光片段單獨提取出來進行剪輯的做法非常常見。在現有技術中,需要人工看完整個視頻,判斷哪些是高光片段,這種方式耗時長。
因此,現有技術還有待改進和提高。
發明內容
針對現有技術的上述缺陷,本發明提供一種基于彈幕的視頻高光片段識別方法、終端及存儲介質,旨在解決現有技術中由人工識別高光片段耗時長的問題。
為了解決上述技術問題,本發明所采用的技術方案如下:
本發明的第一方面,提供一種基于彈幕的視頻高光片段識別方法,所述方法包括:
獲取目標視頻,對所述目標視頻進行分割,得到至少一個視頻片段;
對于所述至少一個視頻片段中的目標片段中的每個彈幕,將彈幕文本輸入至預先訓練完成的第一神經網絡,獲取所述第一神經網絡輸出的所述彈幕對應的第一語義向量;
根據所述彈幕的第一語義向量獲取所述彈幕對應的目標語義向量;
根據所述目標片段中的各個彈幕分別對應的目標語義向量確定所述目標片段是否為高光片段。
所述的基于彈幕的視頻高光片段識別方法,其中,所述第一神經網絡的參數是根據多組訓練數據完成的,每組訓練數據中包括樣本視頻片段以及樣本視頻片段中的各個彈幕,所述第一神經網絡的訓練目標函數為:
其中,BSi為訓練數據中樣本視頻片段中的第i個彈幕,xi為所述第i個彈幕對應的第一語義向量,BSi+j為BSi的上下文彈幕,2*m為彈幕的上下文彈幕的數量,uo為BSi的上下文彈幕的第一語義向量,ubs為樣本視頻片段中第bs個彈幕的第一語義向量,N為樣本視頻片段中彈幕的數量,Vj為目標片段,V為目標視頻,θ為所述第一神經網絡的參數,p(BSi+j|BSi;θ)為所述第一神經網絡的參數取θ時對應的p(BSi+j|BSi)。
所述的基于彈幕的視頻高光片段識別方法,其中,所述根據所述彈幕的第一語義向量獲取所述彈幕對應的目標語義向量包括:
對所述彈幕進行分詞,將所述彈幕中的各個單詞輸入至預先訓練完成的第二神經網絡,獲取所述第二神經網絡輸出的所述各個單詞分別對應的詞向量,根據所述各個詞向量獲取所述彈幕對應的第二語義向量;
根據所述第一語義向量和所述第二語義向量獲取所述彈幕對應的目標語義向量。
所述的基于彈幕的視頻高光片段識別方法,其中,所述根據所述第一語義向量和所述第二語義向量獲取所述彈幕對應的目標語義向量包括:
將所述第一語義向量和所述第二語義向量連接后輸入至預先訓練的第三神經網絡,獲取所述第三神經網絡輸出的所述目標語義向量;
其中,在所述第三神經網絡中,對所述第一語義向量和所述第二語義向量進行處理的公式為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳大學,未經深圳大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010732044.9/2.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種口罩機鼻梁輸送機構
- 下一篇:一種節水灌溉系統





