[發(fā)明專利]駕駛模型訓(xùn)練方法、駕駛?cè)俗R別方法、裝置、設(shè)備及介質(zhì)有效
| 申請?zhí)枺?/td> | 201710846204.0 | 申請日: | 2017-09-19 |
| 公開(公告)號: | CN107729986B | 公開(公告)日: | 2020-11-03 |
| 發(fā)明(設(shè)計)人: | 吳壯偉;金鑫;張川 | 申請(專利權(quán))人: | 平安科技(深圳)有限公司 |
| 主分類號: | G06N3/04 | 分類號: | G06N3/04;G06N3/08;G06K9/00 |
| 代理公司: | 深圳眾鼎專利商標(biāo)代理事務(wù)所(普通合伙) 44325 | 代理人: | 譚果林 |
| 地址: | 518000 廣東省深*** | 國省代碼: | 廣東;44 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 駕駛 模型 訓(xùn)練 方法 駕駛?cè)?/a> 識別 裝置 設(shè)備 介質(zhì) | ||
1.一種駕駛模型訓(xùn)練方法,其特征在于,包括:
獲取同一時刻且在同一駕駛場景下車輛的當(dāng)前車速,判斷所述當(dāng)前車速是否達(dá)到預(yù)設(shè)車速閾值;
若所述當(dāng)前車速達(dá)到所述預(yù)設(shè)車速閾值,則采集所述同一時刻且在同一駕駛場景下的當(dāng)前圖像數(shù)據(jù)和當(dāng)前音頻數(shù)據(jù),所述當(dāng)前圖像數(shù)據(jù)和所述當(dāng)前音頻數(shù)據(jù)與用戶標(biāo)識相關(guān)聯(lián);
將所述當(dāng)前圖像數(shù)據(jù)和所述當(dāng)前音頻數(shù)據(jù)存儲在數(shù)據(jù)庫中;
獲取用戶輸入的模型訓(xùn)練指令,所述模型訓(xùn)練指令包括用戶標(biāo)識;
基于所述用戶標(biāo)識查詢所述數(shù)據(jù)庫,獲取所述同一時刻且在同一駕駛場景下的訓(xùn)練圖像數(shù)據(jù)和訓(xùn)練音頻數(shù)據(jù);
采用所述訓(xùn)練圖像數(shù)據(jù)對卷積神經(jīng)網(wǎng)絡(luò)模型進行訓(xùn)練,獲取人臉識別模型;
采用所述訓(xùn)練音頻數(shù)據(jù)對所述卷積神經(jīng)網(wǎng)絡(luò)模型進行訓(xùn)練,獲取音頻識別模型;
采用所述訓(xùn)練圖像數(shù)據(jù)和所述訓(xùn)練音頻數(shù)據(jù)對所述人臉識別模型和所述音頻識別模型進行一致性驗證,統(tǒng)計符合一致性的數(shù)量和不符合一致性的數(shù)量,根據(jù)統(tǒng)計的驗證結(jié)果計算符合一致性的驗證概率;判斷該驗證概率是否大于預(yù)設(shè)概率,若驗證概率大于預(yù)設(shè)概率,則認(rèn)定該人臉識別模型和音頻識別模型通過驗證,將通過驗證的所述人臉識別模型和所述音頻識別模型與所述用戶標(biāo)識關(guān)聯(lián)存儲。
2.根據(jù)權(quán)利要求1所述的駕駛模型訓(xùn)練方法,其特征在于,所述將所述當(dāng)前圖像數(shù)據(jù)和所述當(dāng)前音頻數(shù)據(jù)存儲在數(shù)據(jù)庫中之后,所述駕駛模型訓(xùn)練方法還包括:
在所述數(shù)據(jù)庫中創(chuàng)建駕駛數(shù)據(jù)信息表,所述駕駛數(shù)據(jù)信息表包括至少一條駕駛數(shù)據(jù)信息;每一所述駕駛數(shù)據(jù)信息包括用戶標(biāo)識、所述當(dāng)前圖像數(shù)據(jù)在所述數(shù)據(jù)庫中的存儲地址和所述當(dāng)前音頻數(shù)據(jù)在所述數(shù)據(jù)庫中的存儲地址;
所述基于所述用戶標(biāo)識查詢所述數(shù)據(jù)庫,獲取同一駕駛場景的所述訓(xùn)練圖像數(shù)據(jù)和所述訓(xùn)練音頻數(shù)據(jù),包括:
基于所述用戶標(biāo)識查詢所述駕駛數(shù)據(jù)信息表,判斷所述駕駛數(shù)據(jù)信息的數(shù)量是否大于預(yù)設(shè)數(shù)量;
若所述駕駛數(shù)據(jù)的數(shù)量大于所述預(yù)設(shè)數(shù)量,則獲取同一駕駛場景的所述訓(xùn)練圖像數(shù)據(jù)和所述訓(xùn)練音頻數(shù)據(jù)。
3.根據(jù)權(quán)利要求1所述的駕駛模型訓(xùn)練方法,其特征在于,所述采用所述訓(xùn)練圖像數(shù)據(jù)對卷積神經(jīng)網(wǎng)絡(luò)模型進行訓(xùn)練,獲取人臉識別模型,包括:
初始化所述卷積神經(jīng)網(wǎng)絡(luò)模型;
在所述卷積神經(jīng)網(wǎng)絡(luò)模型中輸入所述訓(xùn)練圖像數(shù)據(jù),計算所述卷積神經(jīng)網(wǎng)絡(luò)模型各層的輸出;其中,卷積層的每一種輸出的特征圖xj為其中,l是當(dāng)前層,Mj表示選擇的輸入特征圖組合,是輸入的第i種特征圖,是l層輸入的第i種特征圖和輸出的第j種特征圖之間連接所用的卷積核,是第j種特征圖l層對應(yīng)的加性偏置,f是激活函數(shù);池化層的每一種輸出的特征圖xj為其中,down表示下采樣計算,這里的第j種特征圖l層對應(yīng)的乘性偏置,是第j種特征圖l層對應(yīng)的加性偏置;
根據(jù)所述各層的輸出對所述卷積神經(jīng)網(wǎng)絡(luò)模型各層進行誤差反傳更新,獲取更新后的所述各層的權(quán)值;
基于更新后的所述各層的權(quán)值,獲取人臉識別模型。
4.根據(jù)權(quán)利要求1所述的駕駛模型訓(xùn)練方法,其特征在于,所述采用所述訓(xùn)練音頻數(shù)據(jù)對卷積神經(jīng)網(wǎng)絡(luò)模型進行訓(xùn)練,獲取音頻識別模型,包括:
初始化所述卷積神經(jīng)網(wǎng)絡(luò)模型;
基于所述訓(xùn)練音頻數(shù)據(jù)獲取對應(yīng)的訓(xùn)練聲譜圖;
在所述卷積神經(jīng)網(wǎng)絡(luò)模型輸入所述訓(xùn)練聲譜圖,計算所述卷積神經(jīng)網(wǎng)絡(luò)模型各層的輸出;其中,卷積層的每一種輸出的特征圖xj為其中,l是當(dāng)前層,Mj表示選擇的輸入特征圖組合,是輸入的第i種特征圖l-1層的輸出,是l層輸入的第i種特征圖和輸出的第j種特征圖之間連接所用的卷積核,是第j種特征圖l層對應(yīng)的加性偏置,f是激活函數(shù);池化層的每一種輸出的特征圖xj為其中,down表示下采樣計算,這里的第j種特征圖l層對應(yīng)的乘性偏置,是第j種特征圖l層對應(yīng)的加性偏置;
根據(jù)所述各層的輸出對所述卷積神經(jīng)網(wǎng)絡(luò)模型各層進行誤差反傳更新,獲取更新后的所述各層的權(quán)值;
基于更新后的所述各層的權(quán)值,獲取音頻識別模型。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于平安科技(深圳)有限公司,未經(jīng)平安科技(深圳)有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710846204.0/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





