[發明專利]用于使用深度強化學習進行預測建模的自動特征工程在審
| 申請號: | 202210982159.2 | 申請日: | 2022-08-16 |
| 公開(公告)號: | CN116304607A | 公開(公告)日: | 2023-06-23 |
| 發明(設計)人: | M.布亞迪;A.阿拉維 | 申請(專利權)人: | SAP歐洲公司 |
| 主分類號: | G06F18/211 | 分類號: | G06F18/211;G06N3/092;G06N3/084;G06N3/047;G06N5/04 |
| 代理公司: | 北京市柳沈律師事務所 11105 | 代理人: | 邵亞麗 |
| 地址: | 德國瓦*** | 國省代碼: | 暫無信息 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 用于 使用 深度 強化 學習 進行 預測 建模 自動 特征 工程 | ||
1.存儲計算機可執行指令的一個或多個非暫時性計算機可讀介質,當計算機可執行指令在由處理器執行時,執行一種為預測建模在數據集上執行特征工程的方法,所述方法包括:
接收數據集,所述數據集包括多個特征;
響應于接收數據集,通過將數據集變換為數值向量來將數據集輸入到神經網絡中;
從神經網絡接收對多個特征中的至少一個特征執行的動作的選擇;
響應于接收動作的選擇,通過將動作應用于至少一個特征來變換數據集以獲得經變換的數據集;
基于動作來計算神經網絡的獎勵;
確定是否達到神經網絡的預算;
響應于確定達到預算,將多個特征存儲在最終模型中;以及
響應于確定未達到預算,將經變換的數據集和獎勵輸入到神經網絡中,以進行進一步迭代。
2.根據權利要求1所述的介質,其中,多個特征中的每個特征由包括統計特點和從以下各項選擇的至少一個特點的向量表示:平均即時獎勵、使用變換的次數、剩余預算、數值特征的數量、日期時間特征或字串特征。
3.根據權利要求1所述的介質,其中,預算包括時間預算或處理預算之一。
4.根據權利要求1所述的介質,其中,通過預測模型在數據集上的性能和來自先前迭代的先前獎勵之間的差來計算獎勵。
5.根據權利要求1所述的介質,
其中,所選擇的動作是多個動作之一,以及
其中,所選擇的動作包括多個動作中的最優中間獎勵分數或基于作為參數給出的概率的隨機動作。
6.根據權利要求1所述的介質,其中,計算獎勵包括:確定獎勵和來自先前神經網絡迭代的先前獎勵之間的差。
7.根據權利要求1所述的介質,其中,所述方法還包括:
確定多個特征中的特征不改進預測模型;以及
響應于確定所述特征不改進預測模型,從數據集中移除所述特征。
8.一種為預測建模在數據集上執行特征工程的方法,所述方法包括:
接收數據集,所述數據集包括多個特征;
響應于接收數據集,將數據集輸入到神經網絡中;
從神經網絡接收對多個特征中的至少一個特征執行的動作的選擇;
響應于接收動作的選擇,通過將動作應用于至少一個特征來變換數據集以獲得經變換的數據集;
基于動作來計算神經網絡的獎勵;
確定是否達到神經網絡的預算;
響應于確定達到預算,將多個特征存儲在最終模型中;以及
響應于確定未達到預算,將經變換的數據集和獎勵輸入到神經網絡中,以進行進一步迭代。
9.根據權利要求8所述的方法,還包括:確定神經網絡的策略,所述策略定義動作到數據集的映射。
10.根據權利要求9所述的方法,還包括:響應于計算獎勵,更新策略。
11.根據權利要求8所述的方法,還包括:通過獨熱編碼來將分類特征變換為數值特征,以及將數值特征映射到神經網絡的輸入層中。
12.根據權利要求8所述的方法,還包括:
接收額外數據集;以及
在額外數據集上訓練神經網絡。
13.根據權利要求12所述的方法,其中,在額外數據集上訓練神經網絡包括:
在額外數據集上應用ε-貪婪算法;
將事務存儲到重放緩沖區中;以及
使用小批量梯度下降更新神經網絡的至少一個參數。
14.根據權利要求8所述的方法,還包括:
基于獎勵來確定能夠從數據集中移除特征;以及
響應于確定能夠移除所述特征,從數據集中移除所述特征。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于SAP歐洲公司,未經SAP歐洲公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210982159.2/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一株豆腐酸漿來源的植物乳桿菌及其應用
- 下一篇:指紋識別的方法和裝置





