[發明專利]基于合作博弈和知識蒸餾的個性化聯邦學習方法在審
| 申請號: | 202211297705.5 | 申請日: | 2022-10-22 |
| 公開(公告)號: | CN115577804A | 公開(公告)日: | 2023-01-06 |
| 發明(設計)人: | 孫艷華;史亞會;李萌;楊睿哲;司鵬搏 | 申請(專利權)人: | 北京工業大學 |
| 主分類號: | G06N20/20 | 分類號: | G06N20/20;G06N3/04;G06N3/08 |
| 代理公司: | 北京思海天達知識產權代理有限公司 11203 | 代理人: | 王兆波 |
| 地址: | 100124 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 合作 博弈 知識 蒸餾 個性化 聯邦 學習方法 | ||
1.基于合作博弈和知識蒸餾的個性化聯邦學習方法,其特征在于,將FL中的每個客戶端看作合作博弈中的一個玩家,其中N={1,2,…n}為所有客戶端的集合,為集合N的任意子集,用來表示一個聯盟,v(C)為聯盟C中所有元素合作產生的整體效益,定義采用SV將聯盟的整體效益進行分配,收益表示客戶端j在所有聯盟C中產生的貢獻的累計均值:
步驟1:為避免因客戶端私有數據稀缺而對訓練結果造成影響,采用遷移學習使客戶端在FL訓練之前,先在公共數據集Dp上訓練至收斂,然后在本地私有數據集Di上進微調;
步驟2:首先初始化客戶端i的本地模型在FL的每一次全局迭代t中,客戶端i先在公共數據集Dp上訓練,并將得到的局部軟預測logiti上傳到中心服務器,在服務器端形成一個軟預測集為節省客戶端計算資源以及與服務器之間的通信資源,客戶端i計算本地軟預測logiti與軟預測集中的其他局部軟預測的余弦相似度并下載最相似的k個軟預測:
步驟3:定義一個合作博弈其中為由下載的k個軟預測構成的聯盟,v是效益函數,用來分配給一個效益值;由于考慮的是PFL,因此將聯盟X的效益函數定義為對客戶端i的個性化學習的貢獻程度:
然后根據SV將合作聯盟的整體效益分配給聯盟中的每個客戶,表示它在的所有子集X中對當前客戶端i個性化學習的貢獻的累計均值:
其中為正表示正效益,為負則客戶端j對客戶端i的個性化學習呈現出負貢獻,將負貢獻的局部軟預測排除,只計算相關的客戶端軟預測的聚合系數:
式中采用對聚合系數進行進一步的微調,并且對進行歸一化得到最后的聚合權重
步驟4:然后將下載的k個軟預測進行聚合得到客戶端i的個性化軟預測:
其中p、q分別為客戶端i的本地軟預測和聚合的個性化軟預測的比例系數;
最后,在本地采用KD將個性化軟預測的知識遷移到本地軟預測logiti,并在隱私數據集Di上進行本地訓練:
式中ωi為客戶端i的模型參數,η1、η2為學習率,LKL為KL散度,Li(ωi,Di)則為客戶端i在隱私數據集Di上的損失函數;
步驟5:重復步驟1-4直至FL訓練收斂。
2.根據權利要求1所述的基于合作博弈和知識蒸餾的個性化聯邦學習方法,其特征在于,SV的使用需滿足以下四個原則:
(1)有效性:整個聯盟C的收益完全分配給聯盟中的每個客戶:
(2)對稱性:對聯盟有相同貢獻的兩個客戶端應有相同的SV,即如果
那么
(3)冗員性:對所有聯盟的累計貢獻為零的客戶將會獲得零回報,即如果
那么
(4)可加性:如果一個客戶端完成兩項任務,那么兩項任務的收益一起分配
應該和分開分配的收益相等:并且滿足
3.根據權利要求1所述的基于合作博弈和知識蒸餾的個性化聯邦學習方法,其特征在于,假設有N個客戶端N={1,2,…n},每個客戶端i只能訪問隱私數據集Di,在FL中,學習目標是得到一個全局模型ω使所有客戶端的總經驗損失最小:
式中Li(ω,Di)是客戶端i的本地損失函數,在隱私數據集Di上衡量;將客戶端i的個性化損失函數定義為:
式中λ∈(0,1)為加權系數,Dp表示公共數據集,每個參與訓練的客戶端均可訪問;為經過合作博弈后聚合得到的客戶端i的個性化軟測,LKL為KL散度,用來將個性化教師的知識遷移到本地,進而pFedCg算法的訓練目標表示為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京工業大學,未經北京工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211297705.5/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種助眠安神香精及其制備方法
- 下一篇:一種貼附保壓裝置





