[發(fā)明專利]模型訓練方法、裝置、服務器及存儲介質在審
| 申請?zhí)枺?/td> | 202211029747.0 | 申請日: | 2022-08-25 |
| 公開(公告)號: | CN115527090A | 公開(公告)日: | 2022-12-27 |
| 發(fā)明(設計)人: | 胡松 | 申請(專利權)人: | 廣東明創(chuàng)軟件科技有限公司 |
| 主分類號: | G06V10/82 | 分類號: | G06V10/82;G06V10/94 |
| 代理公司: | 深圳市智圈知識產(chǎn)權代理事務所(普通合伙) 44351 | 代理人: | 楊翔 |
| 地址: | 523860 廣東省東莞市長*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 模型 訓練 方法 裝置 服務器 存儲 介質 | ||
本申請實施例公開了一種模型訓練方法、裝置、服務器及存儲介質。該方法包括:向所述多個客戶端設備分發(fā)待訓練模型,并指示所述多個客戶端設備基于各自的圖像數(shù)據(jù)對所述待訓練模型進行訓練;獲取所述多個客戶端設備各自對所述待訓練模型進行訓練后傳回的梯度參數(shù),以得到多個梯度參數(shù);基于所述多個梯度參數(shù)獲取目標模型。本方法實現(xiàn)了能夠借助客戶端使用自身的圖像數(shù)據(jù)對待訓練模型進行訓練,而不需要將圖像數(shù)據(jù)收集到服務器再開始模型訓練,一方面,提升了端云聯(lián)動場景下擴大數(shù)據(jù)集的便利性,從而以大數(shù)據(jù)集來換取更好的深度學習模型訓練效果,進而提升深度神經(jīng)網(wǎng)絡的圖像質量評估效果;另一方面,在借助用戶數(shù)據(jù)的同時,有效保護了用戶的隱私。
技術領域
本申請涉及數(shù)據(jù)處理技術領域,更具體地,涉及一種模型訓練方法、裝置、服務器以及存儲介質。
背景技術
隨著深度學習的提出和流行,訓練深度神經(jīng)網(wǎng)絡已經(jīng)成為了解決圖像質量評估問題的主流方案,且效果大大優(yōu)于非深度學習的方案。目前主要的發(fā)展方向是優(yōu)化深度學習模型或者優(yōu)化數(shù)據(jù)集。相關優(yōu)化深度學習模型的方案難以有效的提取圖像的相關特征,且可解釋性較差;而優(yōu)化數(shù)據(jù)集的方案也因制作數(shù)據(jù)集相當耗費人力物力財力而難以直接擴大數(shù)據(jù)集的規(guī)模,從而影響了深度神經(jīng)網(wǎng)絡的圖像質量評估效果。
發(fā)明內容
鑒于上述問題,本申請?zhí)岢隽艘环N模型訓練方法、裝置、服務器以及存儲介質,以改善上述問題。
第一方面,本申請實施例提供了一種模型訓練方法,應用于服務器,所述服務器與多個客戶端設備連接,所述方法包括:向所述多個客戶端設備分發(fā)待訓練模型,并指示所述多個客戶端設備基于各自的圖像數(shù)據(jù)對所述待訓練模型進行訓練;獲取所述多個客戶端設備各自對所述待訓練模型進行訓練后傳回的梯度參數(shù),以得到多個梯度參數(shù);基于所述多個梯度參數(shù)獲取目標模型。
第二方面,本申請實施例提供了一種模型訓練裝置,運行于服務器,所述服務器與多個客戶端設備連接,所述裝置包括:模型分發(fā)與訓練模塊,用于向所述多個客戶端設備分發(fā)待訓練模型,并指示所述多個客戶端設備基于各自的圖像數(shù)據(jù)對所述待訓練模型進行訓練;梯度參數(shù)獲取模塊,用于獲取所述多個客戶端設備各自對所述待訓練模型進行訓練后傳回的梯度參數(shù),以得到多個梯度參數(shù);模型獲取模塊,用于基于所述多個梯度參數(shù)獲取目標模型。
第三方面,本申請?zhí)峁┝艘环N服務器,包括一個或多個處理器以及存儲器;一個或多個程序被存儲在所述存儲器中并被配置為由所述一個或多個處理器執(zhí)行,所述一個或多個程序配置用于執(zhí)行上述第一方面所述的方法。
第四方面,本申請?zhí)峁┝艘环N計算機可讀存儲介質,所述計算機可讀存儲介質中存儲有程序代碼,其中,在所述程序代碼運行時執(zhí)行上述第一方面所述的方法。
本申請?zhí)峁┑囊环N模型訓練方法、裝置、服務器以及存儲介質,應用于服務器,所述服務器與多個客戶端設備連接,本方法通過向所述多個客戶端設備分發(fā)待訓練模型,并指示所述多個客戶端設備基于各自的圖像數(shù)據(jù)對所述待訓練模型進行訓練;繼而獲取所述多個客戶端設備各自對所述待訓練模型進行訓練后傳回的梯度參數(shù),以得到多個梯度參數(shù);然后基于所述多個梯度參數(shù)獲取目標模型。從而通過上述方式實現(xiàn)了能夠借助客戶端使用自身的圖像數(shù)據(jù)對待訓練模型進行訓練,而不需要將圖像數(shù)據(jù)收集到服務器再開始模型訓練,一方面,提升了端云聯(lián)動場景下擴大數(shù)據(jù)集的便利性,從而以大數(shù)據(jù)集來換取更好的深度學習模型訓練效果,進而提升深度神經(jīng)網(wǎng)絡的圖像質量評估效果;另一方面,在借助用戶數(shù)據(jù)的同時,有效保護了用戶的隱私。
附圖說明
為了更清楚地說明本申請實施例中的技術方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本申請的一些實施例,對于本領域技術人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
圖1示出了本申請實施例提供的模型訓練方法、裝置所涉及的應用環(huán)境圖。
圖2示出了本申請一實施例提供的模型訓練方法的流程圖。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣東明創(chuàng)軟件科技有限公司,未經(jīng)廣東明創(chuàng)軟件科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211029747.0/2.html,轉載請聲明來源鉆瓜專利網(wǎng)。





