[發明專利]數據訓練方法及裝置、存儲介質、電子裝置在審
| 申請號: | 201711488171.3 | 申請日: | 2017-12-29 |
| 公開(公告)號: | CN109993299A | 公開(公告)日: | 2019-07-09 |
| 發明(設計)人: | 韓炳濤 | 申請(專利權)人: | 中興通訊股份有限公司 |
| 主分類號: | G06N3/08 | 分類號: | G06N3/08;G06N3/04 |
| 代理公司: | 北京康信知識產權代理有限責任公司 11240 | 代理人: | 江舟;董文倩 |
| 地址: | 518057 廣*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 存儲介質 電子裝置 集群資源 數據訓練 樣本數據 訓練樣本數據 并行訓練 訓練模型 可用 | ||
本發明提供了一種數據訓練方法及裝置、存儲介質、電子裝置,其中,該方法包括:確定樣本數據和可用的集群資源;將總訓練模型拆分為多個子模型;使用集群資源在多個子模型上并行訓練樣本數據。通過本發明,解決了相關技術中訓練樣本數據效率過低的技術問題。
技術領域
本發明涉及人工智能領域,具體而言,涉及一種數據訓練方法及裝置、存儲介質、電子裝置。
背景技術
相關技術中,深度學習模型(Deep Learning Models)的訓練需要消耗龐大的計算力,完成一次訓練的耗時經常達到數天甚至數月。因此,為了加快深度學習模型的訓練,通常采用增加處理設備,優化訓練模型來實現,但第一種會加大網絡資源的投入量,第二種在短時間內也很難實現。
針對相關技術中存在的上述問題,目前尚未發現有效的解決方案。
發明內容
本發明實施例提供了一種數據訓練方法及裝置、存儲介質、電子裝置。
根據本發明的一個實施例,提供了一種數據訓練方法,包括:確定樣本數據和可用的集群資源;將總訓練模型拆分為多個子模型;使用所述集群資源在所述多個子模型上并行訓練所述樣本數據。
根據本發明的另一個實施例,提供了一種數據訓練裝置,包括:確定模塊,用于確定樣本數據和可用的集群資源;拆分模塊,用于將總訓練模型拆分為多個子模型;訓練模塊,用于使用所述集群資源在所述多個子模型上并行訓練所述樣本數據。
根據本發明的又一個實施例,還提供了一種存儲介質,所述存儲介質中存儲有計算機程序,其中,所述計算機程序被設置為運行時執行上述任一項方法實施例中的步驟。
根據本發明的又一個實施例,還提供了一種電子裝置,包括存儲器和處理器,所述存儲器中存儲有計算機程序,所述處理器被設置為運行所述計算機程序以執行上述任一項方法實施例中的步驟。
通過本發明,通過將總訓練模型拆分為多個子模型,然后在多個子模型上并行訓練樣本數據,解決了相關技術中訓練樣本數據效率過低的技術問題,在不增加網絡資源的情況下,提高了訓練樣本數據的速度。
附圖說明
此處所說明的附圖用來提供對本發明的進一步理解,構成本申請的一部分,本發明的示意性實施例及其說明用于解釋本發明,并不構成對本發明的不當限定。在附圖中:
圖1是根據本發明實施例的數據訓練方法的流程圖;
圖2是根據本發明實施例的數據訓練裝置的結構框圖;
圖3是本實施例提供的并行算法示意圖;
圖4是本實施例提供的基于輸入拆分方案示意圖;
圖5是本實施例提供的Split-Concat算子優化方案示意圖;
圖6是本實施例提供的基于參數拆分方案示意圖;
圖7是根據本實施例提供的交互流程圖。
具體實施方式
下文中將參考附圖并結合實施例來詳細說明本發明。需要說明的是,在不沖突的情況下,本申請中的實施例及實施例中的特征可以相互組合。
需要說明的是,本發明的說明書和權利要求書及上述附圖中的術語“第一”、“第二”等是用于區別類似的對象,而不必用于描述特定的順序或先后次序。
實施例1
在本實施例中提供了一種數據訓練方法,圖1是根據本發明實施例的數據訓練方法的流程圖,如圖1所示,該流程包括如下步驟:
步驟S102,確定樣本數據和可用的集群資源;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中興通訊股份有限公司,未經中興通訊股份有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711488171.3/2.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:用于壓縮神經網絡的方法和裝置
- 下一篇:一種神經網絡模型的訓練方法及裝置





