[發(fā)明專利]構(gòu)建CNN-GB模型的方法及系統(tǒng)、數(shù)據(jù)特征分類方法在審
| 申請(qǐng)?zhí)枺?/td> | 201811257725.3 | 申請(qǐng)日: | 2018-10-26 |
| 公開(公告)號(hào): | CN109359610A | 公開(公告)日: | 2019-02-19 |
| 發(fā)明(設(shè)計(jì))人: | 徐舫舟;許曉燕;舒明雷;張迎春 | 申請(qǐng)(專利權(quán))人: | 齊魯工業(yè)大學(xué);山東省計(jì)算中心(國(guó)家超級(jí)計(jì)算濟(jì)南中心) |
| 主分類號(hào): | G06K9/00 | 分類號(hào): | G06K9/00;G06K9/62;G06N3/08 |
| 代理公司: | 濟(jì)南信達(dá)專利事務(wù)所有限公司 37100 | 代理人: | 孫園園 |
| 地址: | 250353 山東省濟(jì)南*** | 國(guó)省代碼: | 山東;37 |
| 權(quán)利要求書: | 查看更多 | 說(shuō)明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 網(wǎng)絡(luò)模型 分類 網(wǎng)絡(luò)配置模塊 采集腦電 腦電數(shù)據(jù) 數(shù)據(jù)特征 特征提取 構(gòu)建 算法 人工智能 采集模塊 分類識(shí)別 框架構(gòu)建 腦電信號(hào) 特征集 學(xué)習(xí) | ||
1.構(gòu)建CNN-GB模型的方法,其特征在于包括如下步驟:
S100、采集腦電數(shù)據(jù),并對(duì)腦電數(shù)據(jù)進(jìn)行預(yù)處理;
S200、基于Caffe深度學(xué)習(xí)框架構(gòu)建CNN網(wǎng)絡(luò)模型,CNN網(wǎng)絡(luò)模型包括但不限于卷積層、池化層、全連接層和損失層;
S300、選取一部分腦電數(shù)據(jù)作為訓(xùn)練集,通過(guò)訓(xùn)練集訓(xùn)練CNN網(wǎng)絡(luò)模型并更新CNN網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù),得到訓(xùn)練后的CNN網(wǎng)絡(luò)模型,并輸出腦電數(shù)據(jù)的特征;
S400、通過(guò)腦電數(shù)據(jù)的特征訓(xùn)練GB網(wǎng)絡(luò)模型并更新GB網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù),得到訓(xùn)練后的GB網(wǎng)絡(luò)模型;
上述訓(xùn)練后的CNN網(wǎng)絡(luò)模型用于對(duì)腦電數(shù)據(jù)進(jìn)行特征提取,上述訓(xùn)練后的GB網(wǎng)模型用于對(duì)提取的特征進(jìn)行分類。
2.根據(jù)權(quán)利要求1所述的構(gòu)建CNN-GB模型的方法,其特征在于步驟S100中,采集腦電數(shù)據(jù)包括如下分步驟:
基于國(guó)際BCI Competition III競(jìng)賽數(shù)據(jù)庫(kù)中的Dataset I,通過(guò)腦電信號(hào)采集設(shè)備按照預(yù)設(shè)的采用頻率進(jìn)行數(shù)據(jù)采樣,并將采集到的腦電數(shù)據(jù)依據(jù)以試驗(yàn)次數(shù)×信道數(shù)目×采樣數(shù)目的規(guī)格進(jìn)行存儲(chǔ),所述腦電數(shù)據(jù)為多信道腦電數(shù)據(jù)。
3.根據(jù)權(quán)利要求1所述的構(gòu)建CNN-GB模型的方法,其特征在于步驟S100中對(duì)腦電數(shù)據(jù)進(jìn)行預(yù)處理包括如下步驟:
對(duì)腦電數(shù)據(jù)進(jìn)行濾波處理,用于濾除帶外噪聲干擾;
或者,對(duì)腦電數(shù)據(jù)進(jìn)行降采樣處理,用于在不丟失腦電數(shù)據(jù)的特征信息的條件下,去除噪聲和偽跡干擾;
或者,對(duì)腦電數(shù)據(jù)進(jìn)行濾波處理,用于濾除帶外噪聲干擾,并對(duì)腦電數(shù)據(jù)進(jìn)行降采樣處理,用于在不丟失腦電數(shù)據(jù)的特征信息的條件下,去除噪聲和偽跡干擾。
4.根據(jù)權(quán)利要求1、2或3所述的構(gòu)建CNN-GB模型的方法,其特征在于步驟S200中,卷積層的激活函數(shù)設(shè)置為Relu函數(shù),池化層設(shè)置為最大值池化方式,上述卷積層、池化層和全連接層相互堆疊用于對(duì)腦電數(shù)據(jù)進(jìn)行特征提取。
5.根據(jù)權(quán)利要求4所述的構(gòu)建CNN-GB模型的方法,其特征在于步驟S300將腦電數(shù)據(jù)作為訓(xùn)練集輸入構(gòu)建的CNN網(wǎng)絡(luò)模型,通過(guò)誤差反向傳播和隨機(jī)梯度下降方法更新CNN網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù),包括如下分步驟:
S310、通過(guò)卷積層、池化層和全連接層對(duì)腦電數(shù)據(jù)進(jìn)行特征提取,并輸出訓(xùn)練集的標(biāo)簽;
S320、通過(guò)損失層將輸出的訓(xùn)練集的標(biāo)簽與正確的訓(xùn)練集的標(biāo)簽進(jìn)行對(duì)比生成網(wǎng)絡(luò)誤差,利用誤差反向傳播更新CNN網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù);
S330、利用隨機(jī)梯度下降法計(jì)算CNN網(wǎng)絡(luò)模型的最小損失函數(shù),通過(guò)最小化誤差值,優(yōu)化CNN網(wǎng)絡(luò)模型的網(wǎng)絡(luò)參數(shù)。
6.根據(jù)權(quán)利要求5所述的構(gòu)建CNN-GB模型的方法,其特征在于步驟S310包括如下分步驟:
S311、通過(guò)卷積層對(duì)腦電數(shù)據(jù)進(jìn)行卷積處理,得到腦電數(shù)據(jù)的特征;
S312、通過(guò)池化層按照最大池化的方式對(duì)獲得的腦電數(shù)據(jù)的特征進(jìn)行池化操作;
S313、通過(guò)全連接層將池化后的腦電數(shù)據(jù)的特征表征為一個(gè)長(zhǎng)向量特征。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于齊魯工業(yè)大學(xué);山東省計(jì)算中心(國(guó)家超級(jí)計(jì)算濟(jì)南中心),未經(jīng)齊魯工業(yè)大學(xué);山東省計(jì)算中心(國(guó)家超級(jí)計(jì)算濟(jì)南中心)許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811257725.3/1.html,轉(zhuǎn)載請(qǐng)聲明來(lái)源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
G06K 數(shù)據(jù)識(shí)別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識(shí)別印刷或書寫字符或者用于識(shí)別圖形,例如,指紋的方法或裝置
G06K9-03 .錯(cuò)誤的檢測(cè)或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個(gè)筆畫組成的,而且每個(gè)筆畫表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無(wú)須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 腦網(wǎng)絡(luò)模型建立方法
- 弱光圖像增強(qiáng)方法及裝置
- 模型訓(xùn)練方法及裝置
- 神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)模型搜索方法、裝置及存儲(chǔ)介質(zhì)
- 神經(jīng)網(wǎng)絡(luò)模型搜索方法、裝置以及電子設(shè)備
- 含有聚類拓?fù)漶詈系纳窠?jīng)網(wǎng)絡(luò)脈沖同步方法及系統(tǒng)
- 多視角的網(wǎng)絡(luò)攻防仿真系統(tǒng)
- 一種多模型訓(xùn)練方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)
- 一種神經(jīng)網(wǎng)絡(luò)模型生成方法及裝置
- 一種神經(jīng)網(wǎng)絡(luò)模型訓(xùn)練方法、裝置、電子設(shè)備及存儲(chǔ)介質(zhì)





