[發明專利]一種智能熱點打散的方法、裝置、存儲介質及計算機設備有效
| 申請號: | 201910117615.5 | 申請日: | 2019-02-15 |
| 公開(公告)號: | CN111585908B | 公開(公告)日: | 2022-03-04 |
| 發明(設計)人: | 鄭友聲;王康 | 申請(專利權)人: | 貴州白山云科技股份有限公司 |
| 主分類號: | H04L47/125 | 分類號: | H04L47/125;G06F16/955 |
| 代理公司: | 北京名華博信知識產權代理有限公司 11453 | 代理人: | 白瑩;苗源 |
| 地址: | 550003 貴州省貴陽市*** | 國省代碼: | 貴州;52 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 智能 熱點 打散 方法 裝置 存儲 介質 計算機 設備 | ||
本發明公開了一種智能熱點打散的方法、裝置、存儲介質及計算機設備。所公開的方法包括:基于人工智能學習模型學習URL的請求量曲線并預測URL的請求量;將URL的預測請求量大于或等于該URL所對應的第一預定請求量閾值的URL確定為第一URL,對URL執行第一熱點打散操作;將URL的請求量無法預測且實際請求量大于或等于該URL所對應的第二預定請求量閾值的URL確定為第二URL,對URL執行第二熱點打散操作。所公開的技術方案能夠自動預測非突發的熱點URL請求、從而提前進行第一種打散操作,能夠對不能預測的突發熱點URL請求進行第二種打散操作,加快了熱點業務的處理。
技術領域
本發明涉及計算機網絡負載均衡領域,尤其涉及一種智能熱點打散的方法、裝置、存儲介質及計算機設備。
背景技術
為了減小服務器端的處理時延,改善用戶體驗,通常都需要對URL(特別是熱點URL)進行打散/均衡操作。
現有技術通常采用將集中的URL隨機或均勻地分散到后端機器(例如,源站節點服務器集群、邊緣節點服務器集群)的方式,來實現針對熱點URL的負載均衡。
然而,現有技術方案通常只是在熱點URL出現之后,才執行打散操作,從而將針對熱點URL的請求分散地分配到多臺機器,因此存在以下缺點:
1、沒有在前期針對熱點URL可能存在的趨勢做出判斷,做出預先處理。只是在發現熱點之后直接打散,沒有緩存的機器會直接回上層節點或者源造成大量流量浪費。
2、即使采用組內共享緩存方案,將所有回源流量重新導回統一端口,在熱點文件較大(例如,文件大小超過1G)時,在各個機器取完文件之前,熱點堆積現象將無法解決,該統一端口的壓力并沒有減少。
為了解決上述問題,需要提出新的技術方案。
發明內容
根據本發明的智能熱點打散的方法,包括:
基于人工智能學習模型學習URL的請求量曲線并預測URL的請求量;
將URL的預測請求量大于或等于該URL所對應的第一預定請求量閾值的URL確定為第一URL,對URL執行第一熱點打散操作;
將URL的請求量無法預測且實際請求量大于或等于該URL所對應的第二預定請求量閾值的URL確定為第二URL,對URL執行第二熱點打散操作。
根據本發明的智能熱點打散的方法,其對URL執行第一熱點打散操作的步驟包括:
將第一URL的請求隨機或均勻地分配到多個緩存服務器和/或源站服務器的進程。
根據本發明的智能熱點打散的方法,其對URL執行第二熱點打散操作的步驟包括:
查找第二URL的落點進程;
將第一URL的新請求隨機或均勻地分配到多個緩存服務器和/或源站服務器的進程中的、除了落點進程之外的進程;和/或
將第一URL的舊請求隨機或均勻地重新分配到多個緩存服務器和/或源站服務器的進程中的、除了落點進程之外的進程。
根據本發明的智能熱點打散的方法,其對URL執行第二熱點打散操作的步驟還包括:
確定第二URL的請求文件的大小大于指定文件大小;和/或
在落點進程執行完針對第二URL的請求的、獲取并發送請求文件或發送請求文件的響應之后,將第一URL的新請求隨機或均勻地分配到多個緩存服務器和/或源站服務器的進程,和/或,將第一URL的舊請求隨機或均勻地重新分配到多個緩存服務器和/或源站服務器的進程,和/或
基于人工智能學習模型學習URL的請求量曲線并預測URL的請求量的步驟包括:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于貴州白山云科技股份有限公司,未經貴州白山云科技股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910117615.5/2.html,轉載請聲明來源鉆瓜專利網。





