[發(fā)明專利]卷積運(yùn)算裝置及卷積運(yùn)算方法有效
| 申請?zhí)枺?/td> | 201611002218.6 | 申請日: | 2016-11-14 |
| 公開(公告)號: | CN108073548B | 公開(公告)日: | 2021-09-10 |
| 發(fā)明(設(shè)計)人: | 杜力;杜源;李一雷;管延城;劉峻誠 | 申請(專利權(quán))人: | 耐能股份有限公司 |
| 主分類號: | G06F17/15 | 分類號: | G06F17/15 |
| 代理公司: | 北京紀(jì)凱知識產(chǎn)權(quán)代理有限公司 11245 | 代理人: | 趙志剛;趙蓉民 |
| 地址: | 美國加利*** | 國省代碼: | 暫無信息 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 卷積 運(yùn)算 裝置 方法 | ||
本發(fā)明的題目是卷積運(yùn)算裝置及卷積運(yùn)算方法。卷積運(yùn)算裝置包括一卷積運(yùn)算模塊、一內(nèi)存以及一緩沖裝置。卷積運(yùn)算模塊具有多個卷積單元,各卷積單元基于一濾波器以及多個當(dāng)前數(shù)據(jù)進(jìn)行一卷積運(yùn)算,并于卷積運(yùn)算后保留部分的當(dāng)前數(shù)據(jù);緩沖裝置耦接內(nèi)存以及卷積運(yùn)算模塊,從內(nèi)存取得多個新數(shù)據(jù),并將新數(shù)據(jù)輸入至卷積單元,新數(shù)據(jù)不與當(dāng)前數(shù)據(jù)重復(fù)。
技術(shù)領(lǐng)域
本發(fā)明系關(guān)于一種卷積運(yùn)算裝置,尤指一種適于數(shù)據(jù)串流的卷積運(yùn)算裝置。
背景技術(shù)
深度學(xué)習(xí)(deep learning)已是開展人工智能(Artificial intelligence,AI)的重要應(yīng)用技術(shù)之一。其中,卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)則是近年來,引起廣泛重視的一種深度學(xué)習(xí)高效識別技術(shù)。與其它深度學(xué)習(xí)架構(gòu)相比,特別是在模式分類領(lǐng)域的應(yīng)用,例如圖像和語音識別方面,卷積神經(jīng)網(wǎng)絡(luò)避免了復(fù)雜的前期預(yù)處理,且可以直接輸入原始圖像或原始數(shù)據(jù),因而得到了更為廣泛的應(yīng)用并可取得較佳的識別結(jié)果。
然而,卷積運(yùn)算是一種很耗費(fèi)效能的運(yùn)算,在卷積神經(jīng)網(wǎng)絡(luò)的應(yīng)用中,特別是卷積運(yùn)算及連續(xù)平行運(yùn)算,將占據(jù)大部分處理器的效能。另一方面,因特網(wǎng)的多媒體應(yīng)用例如串流媒體也越來越廣泛,因此,有必要提出一種卷積運(yùn)算裝置,當(dāng)用于卷積運(yùn)算及連續(xù)地平行運(yùn)算的處理數(shù)據(jù)時,可具有優(yōu)異的運(yùn)算性能和低功耗表現(xiàn),并且能夠處理數(shù)據(jù)串流,實為當(dāng)前重要的課題之一。
發(fā)明內(nèi)容
有鑒于上述課題,本發(fā)明提出一種能夠處理數(shù)據(jù)串流的卷積運(yùn)算裝置以及方法。
一種卷積運(yùn)算裝置包括一卷積運(yùn)算模塊、一內(nèi)存以及一緩沖裝置。卷積運(yùn)算模塊具有多個卷積單元,各卷積單元基于一濾波器以及多個當(dāng)前數(shù)據(jù)進(jìn)行一卷積運(yùn)算,并于卷積運(yùn)算后保留部分的當(dāng)前數(shù)據(jù);緩沖裝置耦接內(nèi)存以及卷積運(yùn)算模塊,從內(nèi)存取得多個新數(shù)據(jù),并將新數(shù)據(jù)輸入至卷積單元,新數(shù)據(jù)不與當(dāng)前數(shù)據(jù)重復(fù)。
在一實施例中,卷積單元基于濾波器、保留的當(dāng)前數(shù)據(jù)以及新數(shù)據(jù)進(jìn)行次輪卷積運(yùn)算。
在一實施例中,濾波器移動的步幅小于濾波器的最短寬度。
在一實施例中,卷積運(yùn)算裝置進(jìn)一步包括一加總單元,其耦接卷積運(yùn)算模塊,依據(jù)卷積運(yùn)算的結(jié)果產(chǎn)生一特征輸出結(jié)果。
在一實施例中,卷積運(yùn)算裝置包括多個卷積運(yùn)算模塊,卷積單元以及加總單元系能夠選擇性地操作在一低規(guī)模卷積模式以及一高規(guī)模卷積模式;其中,在低規(guī)模卷積模式中,加總單元配置來對卷積運(yùn)算模塊中對應(yīng)順序的各卷積運(yùn)算的結(jié)果交錯加總以各別輸出一加總結(jié)果;其中,在高規(guī)模卷積模式中,加總單元將各卷積單元的各卷積運(yùn)算的結(jié)果交錯加總作為輸出。
在一實施例中,卷積運(yùn)算裝置進(jìn)一步包括一加總緩沖單元,其耦接加總單元與緩沖裝置,暫存特征輸出結(jié)果;其中,當(dāng)指定范圍的卷積運(yùn)算完成后,緩沖裝置從加總緩沖單元將暫存的全部數(shù)據(jù)寫入到內(nèi)存。
在一實施例中,加總緩沖單元包括一部分加總區(qū)塊以及一池化區(qū)塊。部分加總區(qū)塊暫存加總單元輸出的數(shù)據(jù);池化區(qū)塊對暫存于部分加總區(qū)塊的數(shù)據(jù)進(jìn)行池化運(yùn)算。
在一實施例中,池化運(yùn)算為最大值池化或平均池化。
在一實施例中,卷積運(yùn)算裝置進(jìn)一步包括一數(shù)據(jù)讀取控制器以及一指令譯碼器,指令譯碼器從數(shù)據(jù)讀取控制器得到一控制指令并將控制指令譯碼,藉以得到目前從內(nèi)存輸入數(shù)據(jù)的大小、輸入數(shù)據(jù)的行數(shù)、輸入數(shù)據(jù)的列數(shù)、輸入數(shù)據(jù)的特征編號以及輸入數(shù)據(jù)在內(nèi)存中的起始地址。
在一實施例中,各卷積單元包括多個低規(guī)模卷積輸出以及一高規(guī)模卷積輸出,低規(guī)模卷積輸出時各卷積單元進(jìn)行低規(guī)模卷積運(yùn)算以輸出低規(guī)模卷積結(jié)果,高規(guī)模卷積輸出時各卷積單元進(jìn)行高規(guī)模卷積運(yùn)算以輸出高規(guī)模卷積結(jié)果。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于耐能股份有限公司,未經(jīng)耐能股份有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201611002218.6/2.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 卷積運(yùn)算處理方法及相關(guān)產(chǎn)品
- 一種卷積神經(jīng)網(wǎng)絡(luò)的計算方法及系統(tǒng)
- 卷積運(yùn)算方法及系統(tǒng)
- 卷積運(yùn)算方法、裝置及系統(tǒng)
- 深度神經(jīng)網(wǎng)絡(luò)裁剪方法、裝置及電子設(shè)備
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法和圖像處理裝置
- 卷積神經(jīng)網(wǎng)絡(luò)及基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法
- 一種圖像處理方法、裝置以及計算機(jī)存儲介質(zhì)
- 用于卷積神經(jīng)網(wǎng)絡(luò)的卷積運(yùn)算裝置
- 基于FPGA實現(xiàn)圖像識別的方法、裝置、設(shè)備及存儲介質(zhì)





