[發(fā)明專利]一種基于深度學習的軍船、民船自動識別方法在審
| 申請?zhí)枺?/td> | 201810295054.3 | 申請日: | 2018-04-04 |
| 公開(公告)號: | CN108614996A | 公開(公告)日: | 2018-10-02 |
| 發(fā)明(設(shè)計)人: | 劉俊;孟偉秀;黃亮;潘浩;谷雨 | 申請(專利權(quán))人: | 杭州電子科技大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04;G06N3/08 |
| 代理公司: | 浙江永鼎律師事務所 33233 | 代理人: | 雷仕榮 |
| 地址: | 310018*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 算法模型 目標識別 自動識別 卷積 稠密 特征提取方式 自動目標識別 單向連接 領(lǐng)域應用 能力不足 權(quán)重參數(shù) 態(tài)勢估計 特征表達 武器裝備 重新設(shè)計 傳統(tǒng)的 連接層 智能化 彌散 準確率 復用 學習 膨脹 圖像 網(wǎng)絡(luò) | ||
1.一種基于深度學習的軍船、民船識別方法,其特征在于,包括以下步驟:
步驟(1):通過基于稠密全卷積神經(jīng)網(wǎng)絡(luò)的區(qū)域采樣算法(Dense connected RegionProposal Network,DRPN)生成盡可能少的、高質(zhì)量的采樣區(qū)域;
步驟(2):通過基于稠密全卷積神經(jīng)網(wǎng)絡(luò)的快速區(qū)域分類算法(Dense connected FastClassification Network,DFCN)對DPRN生成的采樣區(qū)域分類、定位;
步驟(3):通過重采樣算法對誤分類的樣本進行二次分類定位;
步驟(4):為了使DRPN和DFCN共享卷積層特征,設(shè)計了一種算法模型訓練方法;
其中,步驟(1)重新設(shè)計采樣算法模型,具體步驟為:
步驟(1-1),采樣算法模型名為DRPN,DRPN算法輸入為任意尺寸的包含軍船、民船的紅外或者可見光圖片,輸出為對應于每一個類的多個采樣區(qū)域;算法模型是一個自下而上的網(wǎng)狀結(jié)構(gòu),算法模型通過多個稠密卷積塊(Dense Block)堆疊而成;算法模型每一層是一個4維矩陣,用元組(n,c,h,w)表示,n表示訓練時批處理圖片的數(shù)量,c表示每一層的通道數(shù),h表示特征圖的高度(在輸入端表現(xiàn)為輸入圖片的高),w表示特征圖的寬度,其中4維矩陣通過卷積、池化、歸一化、線性激活函數(shù)(Rectified Linear Units,RELU)等操作不斷變換;在單一尺度訓練時,將(h,w)大小的輸入圖片統(tǒng)一調(diào)整大小至w=600,h=1000;
步驟(1-2),輸入通道的特征圖片經(jīng)過稠密卷積網(wǎng)絡(luò)層變換后,生成了多個W×H大小的特征圖,對于大小為W×H的特征圖,將其按照像素點劃分為W×H個網(wǎng)格,對于網(wǎng)格的每一個像素點,在特征圖上分別取h個尺寸不一的錨點框,因此,對于一個W×H的特征圖我們將產(chǎn)生W×H×k個錨點框,這些采樣區(qū)域包含了大量的前景區(qū)域(包含目標)和背景區(qū)域(不包含目標),在W×H×k個樣本中挑選最能代表樣本特征的錨點框;在訓練DRPN算法時,采用樣本抑制算法(Non Maximum Suppression,NMS)提煉錨點框,對于每一個錨點框,算法都輸出相對應的置信得分,置信得分反應了錨點框是前景區(qū)域還是背景區(qū)域的概率(正負樣本的概率);同時,對于每一個錨點,算法預測了k個回歸器用于修正位置坐標,負樣本不參與回歸預測,DRPN算法在深層次的特征圖上表現(xiàn)為錨點框?qū)φ鎸嵞繕吮尘翱虻姆蔷€性回歸預測;
步驟(1-3),為了共享稠密卷積網(wǎng)絡(luò)的計算量和存儲空間,同時做到端到端的訓練和測試,采用聯(lián)合代價函數(shù)訓練DRPN;對于每一個錨點框,稠密區(qū)域采樣算法需要輸出錨點框是正負樣本的概率,采用多分類的softmax代價函數(shù),在DRPN算法中,softmax表現(xiàn)為二分類的代價函數(shù)(即退化為邏輯回歸代價函數(shù)),對于n個錨點框,算法輸出2×n個置信得分,如下所示softmaxloss代價函數(shù),m表示批處理樣本的大小,k表示softmax輸出單元的數(shù)量,這里二分類k=2,如下所示,中pi表示預測的錨點框置信得分,如果一個錨點框為負樣本,為0,如果一個錨點框為正樣本,為1,用于控制坐標回歸代價函數(shù)的執(zhí)行:如果錨點框是背景區(qū)域則訓練時不進行坐標回歸(只有前景區(qū)域才有修正坐標的價值),公式如下:
前景錨點框粗略的表示了前景區(qū)域在一張圖片中的坐標位置,算法對前景區(qū)域進行坐標回歸,如下所示:G表示真實背景框,P表示錨點框,函數(shù)F表示一個錨點框到真實背景框的映射函數(shù)。真實背景框G用元組(Gx,Gy,Gw,Gh)表示,其中(Gx,Gy)表示真實背景框中心點坐標,(Gw,Gh)表示真實背景框?qū)膶捄透撸唤柚谏疃葘W習高超的函數(shù)逼近能力,F(xiàn)不需要手工設(shè)置,它是通過深度學習算法多次訓練迭代的方式學習得到,本文中通過DRPN算法獲取,如下式所示:Fx(P)、Fy(P)、Fw(P)、Fh(P)需要算法學習得到,使用F*(P)表示對應函數(shù)映射關(guān)系(*表示x,y,w,h),在卷積神經(jīng)網(wǎng)絡(luò)中有下式,其中φ(P)表示算法中間層學習得到的特征圖矩陣,表示算法學習到的權(quán)重,公式如下:
G=F(P)
Gx=PwFx(P)+Px
Gy=PhFy(P)+Py
Gw=Pwexp(dw(P))
Gh=Ph exp(dh(P))
w*通過最小化代價函數(shù)獲得,λ為正規(guī)化參數(shù),λ=1000,t*為待回歸的對象,公式如下:
tx=(Gx-Px)/Pw
ty=(Gy-Py)/Ph
tw=log(Gw/Pw)
th=log(Gh/Ph)
步驟(1-4),在分別設(shè)定了分類和區(qū)域采樣算法的代價函數(shù)后,設(shè)計代價函數(shù)聯(lián)合計算采樣區(qū)域的類別損失(LOSS)和位置損失,通過這種方式算法做到了端到端的訓練;如下式所示:算法設(shè)計了一個聯(lián)合代價函數(shù),Lcls和Lreg分別表示分類和錨點框回歸的代價函數(shù),其中Ncls表示一次訓練選取的錨點框數(shù)量(如256)或者Nreg表示選取錨點框的特征圖大小(如2400),λ設(shè)置為10,公式如下:
在分別設(shè)定了分類和區(qū)域采樣算法的代價函數(shù)后,;采用的代價函數(shù)聯(lián)合計算了采樣區(qū)域的類別損失(LOSS)和位置損失,通過這種方式算法做到了端到端的訓練;Lcls和Lreg分別表示分類和錨點框回歸的代價函數(shù),其中Ncls表示一次訓練選取的錨點框數(shù)量(如256)或者Nreg表示選取錨點框的特征圖大小(如2400),λ設(shè)置為10,公式如下:
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于杭州電子科技大學,未經(jīng)杭州電子科技大學許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810295054.3/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
- 卷積運算處理方法及相關(guān)產(chǎn)品
- 一種卷積神經(jīng)網(wǎng)絡(luò)的計算方法及系統(tǒng)
- 卷積運算方法及系統(tǒng)
- 卷積運算方法、裝置及系統(tǒng)
- 深度神經(jīng)網(wǎng)絡(luò)裁剪方法、裝置及電子設(shè)備
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法和圖像處理裝置
- 卷積神經(jīng)網(wǎng)絡(luò)及基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法
- 一種圖像處理方法、裝置以及計算機存儲介質(zhì)
- 用于卷積神經(jīng)網(wǎng)絡(luò)的卷積運算裝置
- 基于FPGA實現(xiàn)圖像識別的方法、裝置、設(shè)備及存儲介質(zhì)





