[發明專利]一種基于改進DeepLab V3+網絡的變電站環境理解方法有效
| 申請號: | 202211293374.8 | 申請日: | 2022-10-21 |
| 公開(公告)號: | CN115359411B | 公開(公告)日: | 2023-07-21 |
| 發明(設計)人: | 王平;李萌崛;陳妮;文榮 | 申請(專利權)人: | 成都工業學院 |
| 主分類號: | G06V20/40 | 分類號: | G06V20/40;G06V10/82;G06V10/80;G06V10/774;G06V10/764 |
| 代理公司: | 北京元本知識產權代理事務所(普通合伙) 11308 | 代理人: | 曹廣生 |
| 地址: | 611730*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 改進 deeplab v3 網絡 變電站 環境 理解 方法 | ||
1.一種基于改進DeepLab?V3+網絡的變電站環境理解方法,其特征在于,包括以下步驟:
S1:采集變電站環境理解圖像,并構建環境理解數據集;
S2:構建環境理解網絡并訓練;
S3:利用測試集測試模型;
S4:機器人智能決策算法設計;
S5:變電站巡檢機器人道路場景識別應用;
所述步驟S2中的環境理解網絡包括基于DeepLab?v3+網絡的卷積編碼網絡和反卷積解碼網絡,其編碼器(Encoder)主干網絡采用Xception網絡結構,所述步驟S2具體包括:
S21:載入Xception網絡;
S22:對所述Xception網絡進行剪裁,降低入口流(Entry?flow)尾部的通道數;
S23:采用ASPP(Atrous?Spatial?Pyramid?Pooling,空間金字塔池化)模塊進行卷積運算實現多尺度信息提取,卷積層全部采用深度可分離卷積;
S24:在Xception網絡內部中間流(Middle?flow)和出口流(Exit?flow)通道方向進行特征融合操作;
S25:將S24中特征融合結果輸入CBAM(Convolutional?Block?Attention?Module,卷積模塊的注意力機制)模塊處理;
S26:在網絡末尾添加1x1的卷積層,輸出通道為目標類別數,并添加損失層(LossLayer)和精度層(Accuracy?Layer),采用分類交叉熵損失函數作為損失層的目標函數,計算公式如下:
其中n表示樣本總數,y是期望輸出,a是實際輸出,C為分類交叉熵損失函數;
全局精度G計算公式如下:
G=Σinii/Σiti??????????????(2)
其中nii為代表屬于類別i正確分類的像素個數,ti代表類別i的總像素;
S27:在解碼階段,通過基于CBAM模塊的分步上采樣和多分辨率特征融合的方式,來提高圖像像素信息的利用率,進行圖像放大;將特征提取網絡中的中層和高層語義特征之間增加了一次特征融合操作;
S28:經過3×3的深度可分離卷積運算后,在第二次4倍上采樣之前加入一個CBAM模塊;
采用中值頻率均衡方法來平衡各個類別,計算公式如下:
其中num_i表示該類的總像素個數,counti表示含有該類的圖像數量,w和h表示圖像寬高,median(fi)表示求fi的中值,fi為第i類像素在訓練集中出現的頻率,wi為第i類像素的權重;
S29:通過所述步驟S1構建的訓練集對環境理解網絡進行訓練:首先對卷積編碼網絡進行訓練,然后將訓練好的卷積編碼網絡模型作為預訓練模型,對整個編碼-解碼網絡進行訓練。
2.根據權利要求1所述的一種基于改進DeepLab?V3+網絡的變電站環境理解方法,其特征在于,所述步驟S1包括:
S11:數據采集:通過變電站巡檢機器人采集各個變電站不同光照、不同場景的道路視頻;
S12:構建數據集:從采集的道路視頻中提取出清晰且重復率低的視頻幀,構建訓練集和測試集;
S13:樣本標注:標注出圖像中目標的所有像素點,剩余未標注的像素作為背景,所述目標包括道路、雜草、石頭、行人、機器人。
3.根據權利要求1所述的一種基于改進DeepLab?V3+網絡的變電站環境理解方法,其特征在于,所述步驟S22具體為:移除Xception網絡中間流和出口流兩塊網絡層進行部分剪裁,將入口流尾部的通道數降為512。
4.根據權利要求1所述的一種基于改進DeepLab?V3+網絡的變電站環境理解方法,其特征在于,所述步驟S23中ASPP模塊的卷積層的空洞率組合為2、4、6、8,以提升對低分辨率目標以及其邊緣的分割精度。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于成都工業學院,未經成都工業學院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211293374.8/1.html,轉載請聲明來源鉆瓜專利網。





