[發明專利]一種基于CNN深度學習的DBCC分類模型構建方法有效
| 申請號: | 201710025117.9 | 申請日: | 2017-01-13 |
| 公開(公告)號: | CN106910185B | 公開(公告)日: | 2019-01-01 |
| 發明(設計)人: | 李良福;馬衛飛;李麗;張玉霞 | 申請(專利權)人: | 陜西師范大學 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06T7/62;G06K9/62 |
| 代理公司: | 西安智萃知識產權代理有限公司 61221 | 代理人: | 張蓓 |
| 地址: | 710119 陜西省西安市長*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 cnn 深度 學習 dbcc 分類 模型 構建 方法 | ||
本發明公開了一種基于CNN深度學習的DBCC分類模型及構建方法,DBCC分類模型包括4層卷積層、3層池化層和2層全連接層,該DBCC分類模型采用softmax loss函數作為損失函數,第一卷積層、第四卷積層、第二池化層、第三池化層、第一全連接層后面各添加了一個激活函數(RELU),并且,在第一卷積層后面添加局部響應值歸一化層LRN,在第一全連接層后面添加dropout層。本發明的DBCC分類模型是基于卷積神經網絡CNN而構建的,通過在每個卷積層中使用更多的卷積核以及添加LRN、使用dropout、加深網絡深度,使得該DBCC分類模型在識別16*16pixel分辨率的小圖片時,識別精度更高。
技術領域
本發明屬于圖像處理與計算機視覺領域,具體涉及一種基于CNN深度學習的DBCC分類模型構建方法。
背景技術
橋梁作為道路,公路,鐵路等交通系統的樞紐,需要定期的對其健康狀況做出評估,而橋梁裂縫作為最主要的橋梁病害之一,嚴重影響著橋梁的安全運營,更為嚴重的會發生橋毀人亡的事故。因此,對橋梁裂縫進行有效的檢測識別至關重要。
目前對橋梁裂縫檢測的研究,大部分是基于圖像處理算法進行的。圖像處理算法的核心是窗口滑動算法、構建訓練集以及利用訓練集訓練分類模型。具體地,利用窗口滑動算法和采集來的橋梁裂縫圖片構建好訓練集之后,需要利用訓練集訓練橋梁背景面元和橋梁裂縫面元的一個分類模型。
基于彩色的橋梁裂縫圖片進行的橋梁裂縫檢測定位中,該橋梁裂縫面元和背景面元均為16*16pixel分辨率的小圖片,而在深度學習中,對于小圖片的識別有一個經典的深度學習模型CIFAR10模型。但是,如果直接把CIFAR10模型用于對橋梁裂縫面元和背景面元的分類識別,其效果并不理想,并且由于CIFAR10模型針對的是32*32pixel分辨率的小圖片識別,會導致最終在整幅橋梁裂縫圖片上橋梁裂縫識別不準確,裂縫識別精度差等問題。
發明內容
本發明的目的是克服CIFAR10模型針對16*16pixel分辨率的小圖片識別不準確,裂縫識別精度差的問題。為此,本發明提供了一種基于CNN深度學習的DBCC分類模型及構建方法。本發明要解決的技術問題通過以下技術方案實現:
一種基于CNN深度學習的DBCC分類模型構建方法,包括以下步驟:
步驟一、以卷積方式將輸入的原始圖片與第一卷積層中的所有卷積核進行卷積求和,得到第一卷積層的特征映射圖;
步驟二、在第一卷積層后添加一Relu激活函數;
步驟三、在第一卷積層后添加一用于圖片明亮度矯正的局部響應值歸一化層,所述局部響應值歸一化層提升了網絡的識別效果;
步驟四、將第一卷積層的特征映射圖在第一池化層中進行下采樣,降低分辨率并選取優秀的特征,作為第一池化層的特征映射圖;
步驟五、在第二卷積層上以卷積方式將第一池化層的特征映射圖與第二卷積層中的所有卷積核進行卷積求和,得到第二卷積層的特征映射圖,將第二卷積層的特征映射圖在第二池化層中進行下采樣,降低分辨率并選取優秀的特征,作為第二池化層的特征映射圖;
步驟六、在第二池化層后添加一Relu激活函數后在第三卷積層上以卷積方式將第二池化層的特征映射圖與第三卷積層中的所有卷積核進行卷積求和,得到第三卷積層的特征映射圖,將第三卷積層的特征映射圖在第三池化層中進行下采樣,降低分辨率并選取優秀的特征,作為第三池化層的特征映射圖;
步驟七、在第三池化層后添加一Relu激活函數后在第四卷積層上以卷積方式將第三池化層的特征映射圖與第四卷積層中的所有卷積核進行卷積求和,得到第四卷積層的特征映射圖;
步驟八、在第四卷積層后添加一Relu激活函數后將第四卷積層的特征映射圖輸出至第一全連接層,并且,在第一全連接層后添加用于防止過擬合的Dropout層;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于陜西師范大學,未經陜西師范大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710025117.9/2.html,轉載請聲明來源鉆瓜專利網。





