[發明專利]一種基于Keras平臺的自適應深度學習模型優化方法在審
| 申請號: | 201910380960.8 | 申請日: | 2019-05-08 |
| 公開(公告)號: | CN110245742A | 公開(公告)日: | 2019-09-17 |
| 發明(設計)人: | 趙坤;張挺 | 申請(專利權)人: | 上海電力學院 |
| 主分類號: | G06N3/04 | 分類號: | G06N3/04;G06K9/62;G06Q10/04;G06Q50/06 |
| 代理公司: | 上海科盛知識產權代理有限公司 31225 | 代理人: | 葉敏華 |
| 地址: | 200090 *** | 國省代碼: | 上海;31 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 模型優化 樣本數據 預測模型 自適應 參數調節 動作選擇 全局最優 網絡提供 相似結構 預測 算法 調試 標簽 網絡 場景 學習 優化 決策 | ||
本發明涉及一種基于Keras平臺的自適應深度學習模型優化方法,該方法包括下列步驟:1)對Q值網絡的參數進行優化,將動作選擇與全局最優決策分離;2)利用Keras建立預測模型,并對模型進行超參數調節;3)采用Q?Learning算法為深度Q網絡提供有標簽的樣本數據;4)根據提供的樣本數據訓練深度Q網絡。與現有技術相比,本發明能夠降低過高估計Q值的風險,易于調試,提高已讀性,使模型對于具有多個相似模型組成的系統有一定的自適能力,進而使預測模型在其他相似結構的預測效果達到人工調參精度的水平,滿足不同場景的預測需求。
技術領域
本發明涉及深度學習領域,尤其是涉及一種基于Keras平臺的自適應深度學習模型優化方法。
背景技術
Keras是一個高層神經網絡庫,Keras由純Python編寫而成并基于TensorFlow或Theano。Keras為支持快速實驗而生,能夠把用戶的idea迅速轉換為結果。Keras具有簡易和快速的原型設計,還具有高度模塊化、極簡和可擴充特性,支持CNN、RNN或二者的結合,支持任意的鏈接方案(包括多輸入和多輸出訓練),無縫CPU和GPU切換。
超參數是指深度學習模型中需要事先設定的參數,如網絡層數、失活層的系數、優化方法的學習率、每一層包含的細胞數等。在不考慮時間與計算力的情況下,最簡單的提高預測準確度的方法是增大訓練數據的規模以及加深深度學習模型,但是實際情況中的時間與計算力以及獲得的數據往往是有限的,所以需要對超參數進行一個調節以適應當前的模型更好的表達訓練數據中的特性。如圖1所示,最左端顯示的是欠擬合即訓練誤差與驗證誤差均很大,隨著模型的容量的增加,訓練誤差與驗證誤差先是慢慢縮小,但是繼續擴大后訓練誤差持續變小,訓練誤差與驗證誤差間的差距卻越來越大,即泛化能力越來越弱,這被稱為過擬合,模型的深度超過了最優部分。對于深度模型的超參數而言,大部分都符合圖1所示的U型特點。需要解決的問題就是找到最優部分所在的位置。在所有超參數中最重要的為學習率,學習率對模型的深度影響最大,當學習率不大不小剛剛合適時,模型的深度最佳,學習率與訓練誤差間也具有U形曲線。如圖2所示,當學習率過大時,訓練誤差不僅不縮小反而會迅速增大,當學習率過小時,不僅訓練速度過慢而且有可能永遠停留在一個很高的訓練誤差上。
對并聯系統而言,現有的對整個系統進行預測的方法需要較大的人力成本參與調參,且對整個系統整體進行預測的準確度不如對不同單元預測后疊加的準確度高,然而現有的預測模型尚未針對提出一種不同單元預測后疊加的方式進行優化。
發明內容
本發明的目的就是為了克服上述現有技術存在的缺陷而提供一種基于Keras平臺的自適應深度學習模型優化方法。
本發明的目的可以通過以下技術方案來實現:
一種基于Keras平臺的自適應深度學習模型優化方法,包括以下步驟:
S1:對Q值網絡的參數進行優化。
在Q值網絡中采用兩套不同的參數θ與θ-。θ為將表格Q(s,a)利用函數Q(s,a,θ)映射后的函數參數。其中參數θ用以選出最大Q值的動作,參數θ-則用以選出最優Q值的動作。兩套參數將動作選擇與全局最優決策分離,使得模型過高估計Q值的風險降低。目標Q值的形式如下:
上式表示動作的選擇采用θ網絡argmaxaQ(s′,a|θi),動作評估采用θ-,式中,r為獎勵,γ為折扣因子。s′表示當前的狀態,a表示當前的動作。
S2:建立預測模型,并對模型進行超參數調節。
利用Keras包裝深度學習模型的每一層神經網絡,并將包裝好的深度學習模型應用到scikit-learn中作為預測模型。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于上海電力學院,未經上海電力學院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910380960.8/2.html,轉載請聲明來源鉆瓜專利網。





