[發(fā)明專利]神經(jīng)網(wǎng)絡模型輸入?yún)⒘拷稻S方法及計算機可讀存儲介質(zhì)在審
| 申請?zhí)枺?/td> | 202010903848.0 | 申請日: | 2020-09-01 |
| 公開(公告)號: | CN112132259A | 公開(公告)日: | 2020-12-25 |
| 發(fā)明(設計)人: | 張彩云;丁文祥;李雪丁;張友權(quán);李星;鄭祥靖;郭民權(quán);丁萍;陳金瑞;朱本璐;任在常 | 申請(專利權(quán))人: | 廈門大學 |
| 主分類號: | G06N3/04 | 分類號: | G06N3/04;G06N3/08 |
| 代理公司: | 福州市博深專利事務所(普通合伙) 35214 | 代理人: | 顏麗蓉 |
| 地址: | 361000 福建*** | 國省代碼: | 福建;35 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 神經(jīng)網(wǎng)絡 模型 輸入 參量 方法 計算機 可讀 存儲 介質(zhì) | ||
本發(fā)明公開了一種神經(jīng)網(wǎng)絡模型輸入?yún)⒘拷稻S方法及計算機可讀存儲介質(zhì),方法包括:獲取樣本數(shù)據(jù);根據(jù)預設的比例,將樣本數(shù)據(jù)劃分為訓練數(shù)據(jù)和測試數(shù)據(jù);隨機產(chǎn)生預設數(shù)量的初始串結(jié)構(gòu)數(shù)據(jù),得到初始的種群,初始串結(jié)構(gòu)數(shù)據(jù)中的每個位分別與樣本數(shù)據(jù)中的各變量一一對應,且每個位的取值為第一字符或第二字符;分別計算最新的種群中各串結(jié)構(gòu)數(shù)據(jù)對應的Heidke技巧評分,并作為各串結(jié)構(gòu)數(shù)據(jù)的適應度;若存在適應度大于或等于預設目標值的串結(jié)構(gòu)數(shù)據(jù),則將該串結(jié)構(gòu)數(shù)據(jù)中取值為第一字符的位對應的變量作為最終建模變量;若不存在,則根據(jù)遺傳算法,生成新的串結(jié)構(gòu)數(shù)據(jù),得到新的種群,繼續(xù)計算適應度。本發(fā)明可提高神經(jīng)網(wǎng)絡模型的精度和效率。
技術(shù)領域
本發(fā)明涉及神經(jīng)網(wǎng)絡技術(shù)領域,尤其涉及一種神經(jīng)網(wǎng)絡模型輸入?yún)⒘拷稻S方法及計算機可讀存儲介質(zhì)。
背景技術(shù)
在用統(tǒng)計分析方法研究多變量的課題時,變量個數(shù)太多就會增加課題的復雜性。人們自然希望變量個數(shù)較少而得到的信息較多。在很多情形,變量之間是有一定的相關(guān)關(guān)系的,當兩個變量之間有一定相關(guān)關(guān)系時,可以解釋為這兩個變量反映此課題的信息有一定的重疊。例如,在研究赤潮預測模型時可能需要收集氣象數(shù)據(jù)、水文數(shù)據(jù)、水質(zhì)數(shù)據(jù)、營養(yǎng)鹽數(shù)據(jù)和潮汐數(shù)據(jù)等,可能會包含幾十個參量,其中部分變量之間存在著一定的相關(guān)關(guān)系,變量所反應的赤潮信息存在著一定的重復。對收集的變量進行一定的分析,尋找影響課題主要的參量,在不影響模型結(jié)果的基礎上,建立盡可能少的新變量,使得這些新變量是兩兩不相關(guān)的,而且這些新變量在反映課題的信息方面盡可能保持原有的信息,方便找到影響課題的關(guān)鍵因子。
另外,在現(xiàn)實生活中,實際很難用線性模型進行描述。神經(jīng)網(wǎng)絡的出現(xiàn)大大降低了模型建立的難度和工作量。只需將神經(jīng)網(wǎng)絡看成是一個黑箱子,根據(jù)輸入與輸出數(shù)據(jù),神經(jīng)網(wǎng)絡依據(jù)相關(guān)的學習規(guī)則,便可以建立相應的數(shù)學模型。但是,當模型的輸入?yún)⒘亢芏唷⑤斎雲(yún)⒘恐g不是相互獨立時,利用神經(jīng)網(wǎng)絡容易出現(xiàn)過擬合現(xiàn)象,從而導致所建立的模型精度低、建模時間長等問題。因此,在建立模型之前,有必要對輸入自變量進行優(yōu)化選擇,將冗余的一些自變量去掉,選擇最能反映輸入與輸出關(guān)系的自變量參與建模。
發(fā)明內(nèi)容
本發(fā)明所要解決的技術(shù)問題是:提供一種神經(jīng)網(wǎng)絡模型輸入?yún)⒘拷稻S方法及計算機可讀存儲介質(zhì),可提高神經(jīng)網(wǎng)絡模型的精度和效率。
為了解決上述技術(shù)問題,本發(fā)明采用的技術(shù)方案為:一種神經(jīng)網(wǎng)絡模型輸入變量降維方法,包括:
獲取樣本數(shù)據(jù),所述樣本數(shù)據(jù)包括正樣本數(shù)據(jù)和負樣本數(shù)據(jù),每個樣本數(shù)據(jù)由多個變量數(shù)據(jù)構(gòu)成;
根據(jù)預設的比例,將所述樣本數(shù)據(jù)劃分為訓練數(shù)據(jù)和測試數(shù)據(jù);
隨機產(chǎn)生預設數(shù)量的初始串結(jié)構(gòu)數(shù)據(jù),得到初始的種群,所述初始串結(jié)構(gòu)數(shù)據(jù)中的每個位分別與樣本數(shù)據(jù)中的各變量一一對應,且每個位的取值為第一字符或第二字符;
分別計算最新的種群中各串結(jié)構(gòu)數(shù)據(jù)對應的Heidke技巧評分,并分別將各串結(jié)構(gòu)數(shù)據(jù)對應的Heidke技巧評分作為各串結(jié)構(gòu)數(shù)據(jù)的適應度;
判斷最新的種群中是否存在適應度大于或等于預設目標值的串結(jié)構(gòu)數(shù)據(jù);
若是,則將適應度大于或等于預設目標值的串結(jié)構(gòu)數(shù)據(jù)中取值為第一字符的位對應的變量作為最終建模變量;
若否,則根據(jù)遺傳算法,生成新的串結(jié)構(gòu)數(shù)據(jù),得到新的種群;
繼續(xù)執(zhí)行所述分別計算最新的種群中各串結(jié)構(gòu)數(shù)據(jù)對應的Heidke技巧評分,并分別將各串結(jié)構(gòu)數(shù)據(jù)對應的Heidke技巧評分作為各串結(jié)構(gòu)數(shù)據(jù)的適應度的步驟。
本發(fā)明還提出一種計算機可讀存儲介質(zhì),其上存儲有計算機程序,所述程序被處理器執(zhí)行時實現(xiàn)如上所述的方法的步驟。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于廈門大學,未經(jīng)廈門大學許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010903848.0/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 硬件神經(jīng)網(wǎng)絡轉(zhuǎn)換方法、計算裝置、軟硬件協(xié)作系統(tǒng)
- 生成較大神經(jīng)網(wǎng)絡
- 神經(jīng)網(wǎng)絡的生成方法、生成裝置和電子設備
- 一種舌診方法、裝置、計算設備及計算機存儲介質(zhì)
- 學習神經(jīng)網(wǎng)絡結(jié)構(gòu)
- 脈沖神經(jīng)網(wǎng)絡轉(zhuǎn)換方法及相關(guān)轉(zhuǎn)換芯片
- 圖像處理方法、裝置、可讀存儲介質(zhì)和計算機設備
- 一種適應目標數(shù)據(jù)集的網(wǎng)絡模型微調(diào)方法、系統(tǒng)、終端和存儲介質(zhì)
- 用于重構(gòu)人工神經(jīng)網(wǎng)絡的處理器及其操作方法、電氣設備
- 一種圖像神經(jīng)網(wǎng)絡結(jié)構(gòu)的優(yōu)化方法及裝置





