[發明專利]一種基于博弈論的聯邦學習隱私策略選擇方法在審
| 申請號: | 202110292473.3 | 申請日: | 2021-03-18 |
| 公開(公告)號: | CN112926088A | 公開(公告)日: | 2021-06-08 |
| 發明(設計)人: | 林思昕;孫哲;殷麗華;那崇寧;李丹;李超;羅熙;韋南 | 申請(專利權)人: | 之江實驗室;廣州大學 |
| 主分類號: | G06F21/62 | 分類號: | G06F21/62;G06N20/00;G06N5/04 |
| 代理公司: | 杭州求是專利事務所有限公司 33200 | 代理人: | 賈玉霞 |
| 地址: | 310023 浙江省杭州市余*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 博弈論 聯邦 學習 隱私 策略 選擇 方法 | ||
本發明公開了一種基于博弈論的聯邦學習隱私策略選擇方法,該方法包括:服務器為參與方提供具有不同服務成本的閾值,參與方根據是否滿足服務質量、隱私泄露代價等來選擇最佳閾值,并由服務器在下一次迭代訓練中更新服務成本;服務器通過多次迭代來獲得最優的模型參數,以此保持模型長期穩定的服務狀態,并提供給參與方。該方法有效避免了參與方“搭便車”等惡意行為,使得服務器可以最大限度地得到服務費用,參與方可以獲得長期的優質服務。
技術領域
本發明涉及聯邦學習和隱私保護領域,具體涉及一種基于博弈論的聯邦學習隱私策略選擇方法。
背景技術
聯邦學習是一種不需要收集各參與方所有數據便能協作地訓練一個模型的機器學習過程,當參與方不采用隱私保護設置,服務方訓練得到的模型服務質量最好,但是會存在泄露參與方隱私的問題,嚴重損害參與方利益;當參與方采用非常強的隱私保護設置時,雖然能夠保障自己的個人隱私,但同時也會影響模型的服務質量。因此,這時候就需要有一個閾值來調節參與方的隱私保護強度和服務器訓練的模型服務質量。
但在模型訓練過程中,由于大多數參與方都是自私的,因此在有權保障個人隱私信息時,他們會選擇隱私保護的最大閾值,并在選擇閾值時,他們通常考慮眼前而非長期的利益。
目前雖然已經有許多激勵機制被提出來解決模型服務質量和隱私保護權衡中的自私問題,但大多數都集中在一次性博弈模型上,例如外包服務中的一次性博弈,通過設計一個聯盟策略,然后在合作的用戶之間共享收益結果,以此來提高k-匿名隱私保護。同時,這些博弈過程大多都是基于完全信息的假設,即每位博弈方都能知道其他博弈方的策略和報酬。完全信息假設在現實中很難實現。
因此,現有策略權衡方法沒有考慮長期服務收益,即無法訓練出長期服務于參與方并且能保障參與方隱私的高質量模型;現有策略權衡方法大多只考慮一次博弈,實際上雙方存在多次博弈可能,需考慮當前博弈情況對后面博弈進程的影響。
發明內容
為克服上述現有技術存在的不足,本發明提出一種基于博弈論的聯邦學習隱私策略選擇方法,該方法通過服務器為參與方提供具有不同服務成本的閾值,參與方根據是否滿足服務質量、隱私泄露代價等來選擇最佳閾值,并由服務器在下一次迭代訓練中更新服務成本;服務器通過多次迭代來獲得最優的模型參數,以此保持模型長期穩定的服務狀態,并提供給參與方。
本發明的目的通過如下的技術方案來實現:
一種基于博弈論的聯邦學習隱私策略選擇方法,該方法包括:服務器為參與方提供具有不同服務成本的模型質量的權衡參數λMQ與隱私強度的權衡參數λPI的比值λMQ/λPI,參與方根據是否滿足服務質量、隱私泄露代價來選擇最佳閾值,并用自身數據集訓練模型,并把選擇的閾值和訓練更新的模型參數發給服務器;服務器收集各個參與方的模型參數進一步訓練模型,獲得優化的模型參數,并更新服務閾值λMQ/λPI和服務成本后再發給參與方,以此服務器保持模型長期穩定的服務狀態提供給參與方。
進一步地,在每次迭代中,服務器計算各個參與方的效用utilityi,以及所有參與方的效用平均值
進一步地,當參與方采用低質量的數據訓練模型時,得不到獎勵,即獎勵為0,當參與方采用低質量的數據訓練模型時,會得到獎勵,獎勵如下:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于之江實驗室;廣州大學,未經之江實驗室;廣州大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110292473.3/2.html,轉載請聲明來源鉆瓜專利網。





