[發明專利]一種CNN的處理方法和裝置有效
| 申請號: | 201610017755.1 | 申請日: | 2016-01-12 |
| 公開(公告)號: | CN105678379B | 公開(公告)日: | 2020-08-07 |
| 發明(設計)人: | 祝犇 | 申請(專利權)人: | 騰訊科技(深圳)有限公司 |
| 主分類號: | G06N3/06 | 分類號: | G06N3/06;G06N3/04 |
| 代理公司: | 深圳市深佳知識產權代理事務所(普通合伙) 44285 | 代理人: | 王仲凱 |
| 地址: | 518000 廣東省深圳*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 cnn 處理 方法 裝置 | ||
1.一種卷積神經網絡CNN的處理方法,其特征在于,包括:
獲取CNN的模型中第一模塊的密集類型;
若所述第一模塊的密集類型屬于計算密集型,將所述第一模塊部署到專用集成電路ASIC上,并獲取到所述第一模塊占用所述ASIC的多個運算器資源;
對所述第一模塊占用所述ASIC的多個運算器資源中相同的運算器資源進行合并,得到部署在所述ASIC上的完成運算器資源合并后的第一模塊;
運行部署在所述ASIC上的完成運算器資源合并后的第一模塊;
獲取所述CNN的模型中第二模塊的密集類型;
若所述第二模塊的密集類型屬于計算密集型,將所述第二模塊部署到所述ASIC上,并獲取到所述第二模塊占用所述ASIC的多個運算器資源;
若所述第一模塊和所述第二模塊在所述ASIC占用了相同的運算器資源,對所述第一模塊和所述第二模塊進行合并,得到部署在所述ASIC上的完成模塊合并后的第三模塊,所述第三模塊的功能包括:所述第一模塊的功能和所述第二模塊的功能;
運行部署在所述ASIC上的完成模塊合并后的第三模塊。
2.根據權利要求1所述的方法,其特征在于,所述對所述第一模塊和所述第二模塊進行合并,包括:
對所述第一模塊和所述第二模塊在所述ASIC占用了相同的運算器資源進行合并,并對所述第一模塊的輸入接口和所述第二模塊的輸入接口進行合并,對所述第一模塊的輸出接口和所述第二模塊的輸出接口進行合并。
3.根據權利要求1所述的方法,其特征在于,所述運行部署在所述ASIC上的完成模塊合并后的第三模塊,包括:
按照所述第一模塊的功能和所述第二模塊的功能配置所述第三模塊的功能的生效條件;
當所述第三模塊滿足所述生效條件時,在所述ASIC上運行所述第三模塊的功能。
4.根據權利要求1所述的方法,其特征在于,所述將所述第二模塊部署到所述ASIC上,并獲取到所述第二模塊占用所述ASIC的多個運算器資源之后,所述方法還包括:
對所述第二模塊占用所述ASIC的多個運算器資源中相同的運算器資源進行合并,得到部署在所述ASIC上的完成運算器資源合并后的第二模塊;
運行部署在所述ASIC上的完成運算器資源合并后的第二模塊。
5.根據權利要求1所述的方法,其特征在于,所述方法還包括:
在運行部署在所述ASIC上的完成運算器資源合并后的第一模塊的過程中,監控所述第一模塊在所述ASIC上的運行狀態;
當所述第一模塊在所述ASIC上運行完成之后,將所述第一模塊從所述ASIC上卸載,然后在所述ASIC中裝載所述CNN的模型中的第四模塊。
6.根據權利要求1所述的方法,其特征在于,所述方法還包括:
將所述CNN的模型的數學庫部署在所述ASIC上,所述數學庫中包括所述第一模塊。
7.根據權利要求1至6中任一項所述的方法,其特征在于,所述ASIC具體為現場可編程門陣列FPGA。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于騰訊科技(深圳)有限公司,未經騰訊科技(深圳)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201610017755.1/1.html,轉載請聲明來源鉆瓜專利網。





