[發(fā)明專利]一種基于高層次綜合工具的深度學(xué)習(xí)模型優(yōu)化方法及系統(tǒng)在審
| 申請(qǐng)?zhí)枺?/td> | 202111058333.6 | 申請(qǐng)日: | 2021-09-09 |
| 公開(公告)號(hào): | CN113780553A | 公開(公告)日: | 2021-12-10 |
| 發(fā)明(設(shè)計(jì))人: | 陳弟虎;陳家榮;王自鑫;粟濤;胡炳翔;陳潤明;黃俊龍 | 申請(qǐng)(專利權(quán))人: | 中山大學(xué) |
| 主分類號(hào): | G06N3/08 | 分類號(hào): | G06N3/08;G06N3/04;G06F30/27;G06F111/06 |
| 代理公司: | 廣州粵高專利商標(biāo)代理有限公司 44102 | 代理人: | 劉俊 |
| 地址: | 510275 廣東*** | 國省代碼: | 廣東;44 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 高層次 綜合 工具 深度 學(xué)習(xí) 模型 優(yōu)化 方法 系統(tǒng) | ||
本發(fā)明涉及深度學(xué)習(xí)技術(shù)領(lǐng)域,提出一種基于高層次綜合工具的深度學(xué)習(xí)模型優(yōu)化方法及系統(tǒng),其中包括以下步驟:根據(jù)目標(biāo)功能設(shè)計(jì)深度學(xué)習(xí)模型;獲取訓(xùn)練樣本,輸入所述深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,得到深度學(xué)習(xí)模型的參數(shù)權(quán)值;根據(jù)所述深度學(xué)習(xí)模型的參數(shù)權(quán)值,通過高層次語言表示所述深度學(xué)習(xí)模型;對(duì)所述深度學(xué)習(xí)模型中的各層循環(huán)體進(jìn)行優(yōu)化;通過高層次綜合工具將經(jīng)過優(yōu)化的深度學(xué)習(xí)模型進(jìn)行聯(lián)合仿真。本發(fā)明針對(duì)深度學(xué)習(xí)模型中的循環(huán)體進(jìn)行循環(huán)展開以及流水線處理來縮短時(shí)延從而提升系統(tǒng)的吞吐量,從而降低深度學(xué)習(xí)模型的硬件功耗,且本發(fā)明中的深度學(xué)習(xí)模型經(jīng)過高層次語言構(gòu)建后,再通過高層次綜合工具進(jìn)行轉(zhuǎn)換,能夠有效縮短硬件設(shè)計(jì)的開發(fā)周期。
技術(shù)領(lǐng)域
本發(fā)明涉及深度學(xué)習(xí)技術(shù)領(lǐng)域,更具體地,涉及一種基于高層次綜合工具的深度學(xué)習(xí)模型優(yōu)化方法及系統(tǒng)。
背景技術(shù)
深度學(xué)習(xí)(DL,Deep Learning)是機(jī)器學(xué)習(xí)(ML,Machine Learning)領(lǐng)域中一個(gè)新的研究方向,它被引入機(jī)器學(xué)習(xí)使其更接近于最初的目標(biāo)——人工智能(AI,ArtificialIntelligence)。而卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Networks,CNN)在圖像分類與處理、視頻監(jiān)控以及機(jī)器視覺領(lǐng)域具有及其重要的研究意義和應(yīng)用價(jià)值。
深度學(xué)習(xí)模型是以數(shù)據(jù)處理為核心,其包含大量的計(jì)算操作,如GoogleNet網(wǎng)絡(luò)模型包含15.5億浮點(diǎn)操作,ResNet-152網(wǎng)絡(luò)模型包含了113億浮點(diǎn)操作等,這對(duì)CPU來說并不友好,同時(shí),受制于CPU(Central Processing Unit)的串行處理方式,通過軟件的實(shí)現(xiàn)方式效率并不高,難以滿足快速實(shí)時(shí)的應(yīng)用需求。基于GPU(Graphics Processing Unit)、ASIC以及FPGA的實(shí)現(xiàn)方式相繼被提出,用于加速卷積神經(jīng)網(wǎng)絡(luò)的計(jì)算速度。然而,在實(shí)際使用時(shí)容易發(fā)現(xiàn),采用GPU的功耗嚴(yán)重,而采用ASIC加速器的硬件設(shè)計(jì)與開發(fā)周期較長,成本較高,硬件生成后通常無法改變,靈活性不高。
發(fā)明內(nèi)容
本發(fā)明為克服上述現(xiàn)有技術(shù)所述的深度學(xué)習(xí)模型的硬件加速設(shè)計(jì)存在開發(fā)周期長、功耗嚴(yán)重的缺陷,提供一種基于高層次綜合工具的深度學(xué)習(xí)模型優(yōu)化方法及系統(tǒng)。
為解決上述技術(shù)問題,本發(fā)明的技術(shù)方案如下:
一種基于高層次綜合工具的深度學(xué)習(xí)模型優(yōu)化方法,包括以下步驟:根據(jù)目標(biāo)功能設(shè)計(jì)深度學(xué)習(xí)模型;獲取訓(xùn)練樣本,輸入所述深度學(xué)習(xí)模型進(jìn)行訓(xùn)練,得到深度學(xué)習(xí)模型的參數(shù)權(quán)值;根據(jù)所述深度學(xué)習(xí)模型的參數(shù)權(quán)值,通過高層次語言表示所述深度學(xué)習(xí)模型;對(duì)所述深度學(xué)習(xí)模型中的各層循環(huán)體進(jìn)行優(yōu)化;通過高層次綜合工具將經(jīng)過優(yōu)化的深度學(xué)習(xí)模型進(jìn)行聯(lián)合仿真。
作為優(yōu)選方案,對(duì)所述深度學(xué)習(xí)模型中的循環(huán)體進(jìn)行優(yōu)化時(shí),對(duì)循環(huán)體采用循環(huán)分塊、循環(huán)展開、循環(huán)流水技術(shù)中的一種或多種。
作為優(yōu)選方案,通過高層次綜合工具將經(jīng)過優(yōu)化的深度學(xué)習(xí)模型進(jìn)行聯(lián)合仿真中,還包括以下步驟:通過高層次綜合工具對(duì)所述的深度學(xué)習(xí)模型的循環(huán)體進(jìn)行循環(huán)流水優(yōu)化。
作為優(yōu)選方案,對(duì)所述的深度學(xué)習(xí)模型的循環(huán)體進(jìn)行循環(huán)流水優(yōu)化的步驟包括:判斷所述深度學(xué)習(xí)模型的循環(huán)體是否為嵌套循環(huán),若是,則將所述嵌套循環(huán)中各層循環(huán)下的子循環(huán)完全展開后再對(duì)子循環(huán)進(jìn)行流水線處理;若否,則僅對(duì)最內(nèi)層循環(huán)進(jìn)行流水線處理。
作為優(yōu)選方案,通過高層次綜合工具將經(jīng)過優(yōu)化的深度學(xué)習(xí)模型進(jìn)行聯(lián)合仿真,還包括以下步驟:將經(jīng)過訓(xùn)練的深度學(xué)習(xí)模型的參數(shù)權(quán)值配置在所述深度學(xué)習(xí)模型中,并將其前向傳播的過程進(jìn)行高層次綜合設(shè)計(jì)。
作為優(yōu)選方案,還包括以下步驟:將經(jīng)過高層次綜合工具進(jìn)行聯(lián)合仿真得到的深度學(xué)習(xí)模型的IP核燒錄至FPGA上,驗(yàn)證所述深度學(xué)習(xí)模型的功能準(zhǔn)確性及優(yōu)化效果。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于中山大學(xué),未經(jīng)中山大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202111058333.6/2.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 從視頻中提取關(guān)鍵幀的方法和設(shè)備
- 一種高層次綜合中的組合邏輯優(yōu)化方法及系統(tǒng)
- 一種高層次綜合工具中的指引文件自動(dòng)生成方法及系統(tǒng)
- 一種高層次綜合工具中的多操作數(shù)加法優(yōu)化方法及系統(tǒng)
- 一種基于人工智能的醫(yī)學(xué)圖像分割方法及系統(tǒng)
- 應(yīng)用UVM驗(yàn)證平臺(tái)的高層次化驗(yàn)證方法
- 一種減震式噴水織機(jī)廠房
- 一種減震式噴水織機(jī)廠房
- 一種大規(guī)模分布式訓(xùn)練集群的參數(shù)更新方法、平臺(tái)系統(tǒng)
- 包括多層次分級(jí)存儲(chǔ)器體系的數(shù)據(jù)處理系統(tǒng)的高速緩存相關(guān)性協(xié)議





