[發明專利]基于區塊鏈的防作弊方法及系統有效
| 申請號: | 201910996479.1 | 申請日: | 2019-10-19 |
| 公開(公告)號: | CN110743169B | 公開(公告)日: | 2021-03-30 |
| 發明(設計)人: | 陳幸福 | 申請(專利權)人: | 陳幸福 |
| 主分類號: | A63F13/75 | 分類號: | A63F13/75 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 233100 安徽省滁州*** | 國省代碼: | 安徽;34 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 區塊 作弊 方法 系統 | ||
1.一種基于區塊鏈的防作弊方法,其特征在于,所述方法包括:
S1、第一服務器對客戶端的后臺進程進行掃描,若未掃描出作弊進程,則將該客戶端加入白名單表;
S2、第一服務器讀取區塊鏈上記錄的客戶端歷史數據,并在識別客戶端歷史數據上的信用分數和平均在線時長后,生成對應的采集頻次,然后按照采集頻次采集各客戶端的游戲過程數據,將游戲過程數據以第一任務的形式實時發布至區塊鏈中,所述第一任務攜帶有獲取頻次;第二服務器實時接收白名單表中客戶端所產生的游戲事件數據,將其以第二任務的形式實時發布至區塊鏈;
S3、區塊鏈創建OPEN表和CLOSE表,將新發布的第一任務存入OPEN表,將達到獲取頻次的第一任務存入CLOSE表;
S4、節點從區塊鏈的OPEN表中隨機獲取第一任務,同步更新該第一任務的獲取頻次,節點對獲取到的第一任務進行預處理后生成學習傾向標識,通過強化學習模型對攜帶有學習傾向標識的第一任務進行學習以生成強化學習結果,基于強化學習結果生成帶有時間戳的作弊判定結果,節點將作弊判定結果上傳至區塊鏈并進行全節點廣播,其他節點在收到廣播后基于區塊鏈約束規則進行處理,區塊鏈基于區塊鏈約束規則生成第一獎勵區塊,然后進入S5;或,節點從區塊鏈中隨機獲取第二任務,并在處理完成后生成帶有時間戳的游戲事件結果,節點將游戲事件結果發送至第二服務器,并同步上傳至區塊鏈并進行全節點廣播,其他節點在收到廣播后基于區塊鏈約束規則進行處理,區塊鏈基于區塊鏈約束規則生成第二獎勵區塊,然后進入S7;
S5、區塊鏈根據作弊判定結果對信用分數進行更新,并將更新后的發送至第一服務器中;
S6、若第一服務器向對應的客戶端發送警告消息;若第一服務器將對應的客戶端進行暫時封停;若第一服務器將對應的客戶端進行永久封停;其中,Σ1為第一閾值,Σ2為第二閾值,Σ3為第三閾值;
S7、第二服務器根據游戲事件結果生成相應地命令發送至對應客戶端,以使客戶端對游戲事件結果進行展示。
2.根據權利要求1所述的方法,其特征在于,所述信用分數的計算公式為:
其中,λ為更新后的信用分數,C9、…、C5、…、C1分別表示更新前1個、…、更新前5個、…、更新前9個信用分數,α、β、χ、δ分別為第一權重、第二權重、第三權重、第四權重。
3.根據權利要求1所述的方法,其特征在于,所述采集頻次的計算公式為:
其中,fj表示采集頻次,C8、…、C4、…、C1分別表示當前、…、前4個、…、前7個信用分數,A、B、C、D分別表示第一參數、第二參數、第三參數、第四參數,J表示采集頻次修正因子,L表示平均在線時長,[X]表示對X進行取整。
4.根據權利要求1所述的方法,其特征在于,所述獲取頻次的更新公式為:
其中,f'k為更新后的獲取頻次,fk為更新前的獲取頻次,為節點十次采集的平均節點權重,ωk為當前的節點權重,P為校正因子,Q為偏移量,K表示獲取頻次修正因子,[X]表示對X進行取整。
5.根據權利要求1所述的方法,其特征在于,強化學習模型的構建方法具體包括:
基于游戲圖像訓練集建立訓練函數模型:其中,[T]為采樣步數,t∈[T]時的策略為π(t),c(xt,at)為每步采樣的代價,假設存在最優策略π*,為在最優策略π*下每步采樣的代價;
定義訓練函數模型的V函數:以及定義訓練函數模型的Q函數為:Qπ(x,a)=c(x,a)-λπ+E[Vπ(x′)|x,a];其中,E為迭代次數,
將訓練函數模型拆分為以下三個子模型,表示為:其中,
不斷對三個子模型進行訓練學習,直至小于預設閾值,得到基于游戲圖像數據的強化學習模型。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于陳幸福,未經陳幸福許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910996479.1/1.html,轉載請聲明來源鉆瓜專利網。





