[發明專利]一種基于秘密共享和隨機擾動的隱私保護線性回歸方法在審
| 申請號: | 202110322472.9 | 申請日: | 2021-03-25 |
| 公開(公告)號: | CN113065145A | 公開(公告)日: | 2021-07-02 |
| 發明(設計)人: | 魏立斐;丁悅;李夢思;張蕾 | 申請(專利權)人: | 上海海洋大學 |
| 主分類號: | G06F21/60 | 分類號: | G06F21/60;G06F21/62;G06F17/18 |
| 代理公司: | 上海申浩律師事務所 31280 | 代理人: | 張潔 |
| 地址: | 201306 上*** | 國省代碼: | 上海;31 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 秘密 共享 隨機 擾動 隱私 保護 線性 回歸 方法 | ||
1.一種基于秘密共享和隨機擾動的隱私保護線性回歸方法,其特征在于,包括如下步驟:
S1:秘密共享值的乘法
該步驟主要是兩方在不泄露自己的共享值的前提下,通過將自己的真值隱藏到帶有隨機值的方程中發送給對方,一方依賴于另一方進行計算,最終由其中一方得到共享值的乘積,對于給定的矩陣M∈Rs×t和向量v∈Rt,Mi和vi(i=0,1)是它們的秘密共享份額且分別為計算方Pi(i=0,1)所擁有,其中M=M0+M1,v=v0+v1,即計算方P0擁有私有矩陣M0和私有向量v0,另一計算方P1擁有私有矩陣M1和私有向量v1,通過隨機數據擾動的方法解決該問題之后,Pi(i=0,1)可以獲得乘積Mv的秘密共享份額pi=RPM(M0,M1,v0,v1);
S2:訓練數據預處理
本發明采用將原始數據進行拆分成兩份的形式發給兩個服務器,兩方服務器滿足非共謀半誠實,即不會泄露自己的私有數據但需要通過與對方服務器的交流來完成各自的運算;數據預處理就是利用秘密共享的形式將秘密拆分給兩個計算方,最終只要將兩計算方計算結果相加即可重構數據。這里數據提供者將所需訓練數據(X,y)分成同樣維度大小的(X0,y0)和(X1,y1),滿足X=X0+X1,y=y0+y1。并通過安全信道發給計算方S0和S1。其中X∈R表示維度大小為s×t的矩陣,s為樣本的數量,t為每個樣本的特征數量,y∈R表示一個s維列向量,稱作樣本的目標值。
S3:參數初始化
用線性回歸訓練模型可以采用兩種方法,最小二乘法和梯度下降法,本發明采用的是梯度下降法,其中梯度下降法又分為批量梯度下降法、隨機梯度下降法和小批量梯度下降法,為了使模型參數收斂更快,效率更高,以及秘密共享乘法運算的限制條件,本發明選擇小批量梯度下降法來進行迭代。
Si(i=0,1)共同預置學習率α、小批量樣本數量|B|,最大迭代次數T以及損失閾值e,并分別初始化模型參數θi,將初始迭代次數置為1。其中θi∈R表示t維列向量。這里需注意的是由于需滿足步驟S1a適用的條件,這里選擇的樣本數量|B|需大于樣本的列向量數t。
S4:模型參數更新
對于訓練數據集(X,y)的小批量梯度下降算法的參數更新方式:
其中,m表示當前迭代次數,XB和yB分別表示小批量樣本集的特征值和目標值,
S5:模型參數重構
用戶在收到兩服務器傳輸的參數值θi后,將參數θi相加即可重構出模型參數θ;
S6:預測數據預處理
經過以上步驟,已知目前云服務器S0和S1分別擁有模型參數的秘密共享值θ0和θ1,用戶可以將預測數據分給云服務器進行預測,最后將兩云服務器預測的值相加即可得到最終的預測結果,為了防止預測數據集信息泄露給云服務器,需要對預測數據集XP進行預處理;
S7:計算預測共享值
因為此時不能保證預測數據集XP滿足樣本數數小于特征數,所以Si(i=0,1)需使用S1步驟的情況二,調用步驟S1b分別計算得出秘密共享值即
S8:重構預測結果
Si(i=0,1)分別將秘密共享值發送給用戶,由用戶將秘密共享值相加后重構出真實的預測結果yP。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于上海海洋大學,未經上海海洋大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110322472.9/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種鎂提純裝置和方法
- 下一篇:一種釉料調試裝置及調試方法





