[發明專利]一種基于ELK的數據自動清理方法在審
| 申請號: | 201711205372.8 | 申請日: | 2017-11-27 |
| 公開(公告)號: | CN107817974A | 公開(公告)日: | 2018-03-20 |
| 發明(設計)人: | 王陽 | 申請(專利權)人: | 鄭州云海信息技術有限公司 |
| 主分類號: | G06F8/30 | 分類號: | G06F8/30;G06F11/30;G06F17/30 |
| 代理公司: | 濟南信達專利事務所有限公司37100 | 代理人: | 闞恭勇 |
| 地址: | 450000 河南省鄭州市*** | 國省代碼: | 河南;41 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 elk 數據 自動 清理 方法 | ||
1.一種基于ELK的數據自動清理方法,其特征在于,
通過對數據總線Kafka的優化并結合curator的使用,完成ELK平臺的數據自動化清理。
2.根據權利要求1所述的方法,其特征在于,
優化數據總線Kafka配置參數,配合Kafka清理機制,完成對Kafka持久化消息的清理和consumer_offsets清除,同時參數變量取值采用freemarker技術,通過Linux例行性工作調用shell腳本,結合curator工具,完成對ES索引的定期自動化清理。
3.根據權利要求2所述的方法,其特征在于,
具體操作如下:
步驟1,通過Kafka配置文件中log.cleanup.policy、log.retention.hours、log.retention.bytes三個參數設置和調優,實現Kafka集群對持久化數據的清理;通過log.segment.bytes和log.segment.bytes兩個參數的設置和調優,實現Kafka集群對偏移量consumer_offsets的清除工作;變量取值采用freemarker技術,
具體參數設置如下:
log.cleanup.policy=delete
log.retention.hours=${ng.coms.Brokers.log_retention_hours}
log.retention.bytes=${ng.coms.Brokers.log_retention_bytes}
log.segment.bytes=${ng.coms.Brokers.log_segment_bytes}
log.cleaner.enable=true
步驟2,安裝并啟動curator,清理周期為7天;delete_indices文件的關鍵配置如下:
步驟3,通過shell清理腳本調用curator,關鍵代碼如下:
curator--config/opt/curator-master/examples/curator.yml/opt/curator-master/examples/actions/delete_indices.yml
步驟4,通過Linux的例行性工作,完成定期調用清理shell腳本,刪除時間為每天23點,關鍵代碼如下:
vi/etc/crontab
0 23***root/opt/curator.sh。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于鄭州云海信息技術有限公司,未經鄭州云海信息技術有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711205372.8/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種與網絡無關的ICD設計方法
- 下一篇:一種移動終端的控制方法和移動終端
- 數據顯示系統、數據中繼設備、數據中繼方法、數據系統、接收設備和數據讀取方法
- 數據記錄方法、數據記錄裝置、數據記錄媒體、數據重播方法和數據重播裝置
- 數據發送方法、數據發送系統、數據發送裝置以及數據結構
- 數據顯示系統、數據中繼設備、數據中繼方法及數據系統
- 數據嵌入裝置、數據嵌入方法、數據提取裝置及數據提取方法
- 數據管理裝置、數據編輯裝置、數據閱覽裝置、數據管理方法、數據編輯方法以及數據閱覽方法
- 數據發送和數據接收設備、數據發送和數據接收方法
- 數據發送裝置、數據接收裝置、數據收發系統、數據發送方法、數據接收方法和數據收發方法
- 數據發送方法、數據再現方法、數據發送裝置及數據再現裝置
- 數據發送方法、數據再現方法、數據發送裝置及數據再現裝置





