[發明專利]一種基于多尺度特征交互網絡的多聚焦圖像融合方法有效
| 申請號: | 202110997261.5 | 申請日: | 2021-08-27 |
| 公開(公告)號: | CN113705675B | 公開(公告)日: | 2022-10-04 |
| 發明(設計)人: | 劉羽;王磊;成娟;李暢;宋仁成;陳勛 | 申請(專利權)人: | 合肥工業大學 |
| 主分類號: | G06V10/80 | 分類號: | G06V10/80;G06V10/764;G06N3/04;G06N3/08 |
| 代理公司: | 安徽省合肥新安專利代理有限責任公司 34101 | 代理人: | 陸麗莉;何梅生 |
| 地址: | 230009 安*** | 國省代碼: | 安徽;34 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 尺度 特征 交互 網絡 聚焦 圖像 融合 方法 | ||
1.一種基于多尺度特征交互網絡的多聚焦圖像融合方法,其特征包括如下步驟:
步驟1、數據準備;
獲取任意一對分辨率為H×W×3且聚焦區域為互補的多聚焦圖像IA和IB;
獲取與多聚焦圖像IA中聚焦區域對應的一幅分辨率為H×W的二值圖G1,并進行N-1次區域插值下采樣,得到一組二值圖像集記為{G1,G2,…,Gn,…,GN},并作為網絡訓練的參考圖像,其中,Gn表示第n個尺度的參考圖像,N表示尺度數;
步驟2、構建由主干網絡、特征融合部分、上采樣部分以及多層監督部分組成的多尺度特征交互網絡模型,以預測多聚焦圖像中各像素的聚焦屬性,得到聚焦圖;
步驟2.1、所述主干網絡由N個尺度的卷積層級聯而成,N個卷積層分別記為{Stagen|n=1,…N};當n=1時,第1級卷積層Stage1由1個卷積核大小為p的二維卷積層Conv和k-1個基本殘差塊級聯而成,當n=2,...,N時,第n級卷積層Stagen由k個基本殘差塊級聯而成,n=2,...,N;
將N×k-1個基本殘差塊分別記為BasicBlock1,…,BasicBlockm,…BasicBlockNk-1;其中BasicBlockm表示第m個基本殘差塊,m=1,2,...,Nk-1;第m個基本殘差塊BasicBlockm包括:兩個二維卷積層、兩個ReLU激活函數層;
將一對多聚焦圖像IA和IB的通道進行連接后,得到尺寸為H×W×6的源圖像,并輸入到所述主干網絡中,并經過所述二維卷積層Conv,輸出特征圖Fconv;
當m=1時,將所述特征圖Fconv作為第m個基本殘差塊BasicBlockm的輸入特征并輸入到所述第m個基本殘差塊BasicBlockm中,經過兩個二維卷積層和兩個ReLU激活函數層后,獲得第m個中間特征圖F′m,將第m個中間特征圖F′m與第m個基本殘差塊BasicBlockm的輸入特征相加,從而獲得第m個輸出特征圖BasicBlockresultm;
當m=2,...,Nk-1時,以第m-1個輸出特征圖BasicBlockresultm-1作為所述第m個基本殘差塊BasicBlockm的輸入特征;從而經過第m個基本殘差塊BasicBlockm的兩個二維卷積層和兩個ReLU激活函數層后,獲得第m個中間特征F′m,并將所述第m個中間特征圖F′m與第m個基本殘差塊BasicBlockm的輸入特征相加后,得到第m個輸出特征圖BasicBlockresultm,并作為第n個尺度的卷積層Stagen輸出的特征圖Featuren,m=nk-1,n=1,…,N;
步驟2.2、所述特征融合部分由N個多尺度特征融合模塊組成,記為{MSFFn|n=1,…,N},其中,N表示尺度數,MSFFn表示第n個尺度的多尺度特征融合模塊;
當n=1時,所述第n級尺度的多尺度特征融合模塊MSFFn由第n個特征提取層FEn、第n個上采樣層UPn和第n個跨通道的軟注意力機制單元SABlockn構成;
當n=2,…N-1時,所述第n級尺度的多尺度特征融合模塊MSFFn由第n個特征提取層FEn、第n個上采樣層UPn、第n-1個下采樣層DOWNn-1和第n個跨通道的軟注意力機制單元SABlockn構成;
當n=N時,所述第n級尺度的多尺度特征融合模塊MSFFn由第n個特征提取層FEn、第n-1個下采樣層DOWNn-1和第n個跨通道的軟注意力機制單元SABlockn構成;
其中,所述第n個特征提取層FEn由1個步長為1、卷積核大小為1的二維卷積層和1個步長為1、卷積核大小為3的二維卷積層級聯而成;
第n個上采樣層UPn由一個步長為1、卷積核大小為1的二維卷積層和雙線性插值上采樣層級聯而成;
第n個下采樣層DOWNn由一個步長為1、卷積核大小為1的二維卷積層和一個步長為2、卷積核大小為3的二維卷積層級聯而成;
所述第n個跨通道的軟注意力機制單元SABlockn包括:全局平均池化層,卷積核大小為1的二維卷積層,PReLU激活函數層,X個并行的卷積核大小為1的二維卷積以及softmax函數層;其中,X表示多尺度特征融合模塊的支路數;
當n=1時,將第n級尺度的特征圖Featuren和第n+1級尺度的特征圖Featuren+1共同作為所述第n級尺度的多尺度特征融合模塊MSFFn的輸入特征,并經過所述第n個特征提取層FEn后,得到特征圖Fn;第n+1級尺度的特征圖Featuren+1經過第n個上采樣層UPn,得到上采樣后的特征圖Fn+1;將所述第n個特征提取層FEn輸出的特征圖Fn和第n個上采樣層UPn輸出的特征圖Fn+1相加后,得到第n級尺度粗略融合的特征圖RFn,并輸入到第n個尺度的跨通道的軟注意力機制單元SABlockn中,得到所述特征圖Fn的權重向量Wn和特征圖Fn+1的權重向量Wn+1,再利用式(1)獲得第n個尺度的跨通道的軟注意力機制單元SABlockn的輸出并作為第n級尺度的多尺度特征融合模塊MSFFn的輸出特征圖MSFFresultn;
MSFFresultn=Wn×Fn+Wn+1×Fn+1 (1)
當n=2,…,N-1時,以第n-1級尺度的特征圖Featuren-1、第n級尺度的特征圖Featuren和第n+1級尺度的特征圖Featuren+1共同作為所述第n級尺度的多尺度特征融合模塊MSFFn的輸入特征;所述第n-1級尺度的特征圖Featuren-1經過所述第n-1個下采樣層DOWNn-1,得到下采樣后的特征圖Fn-1;所述第n級尺度的特征圖Featuren經過所述第n個特征提取層FEn,得到特征圖Fn;所述第n+1級尺度的特征圖Featuren+1經過第n個上采樣層UPn,得到上采樣后的特征圖Fn+1;將所述第n-1個下采樣層DOWNn-1輸出的特征圖Fn-1、第n個特征提取層FEn輸出的特征圖Fn和第n個上采樣層UPn輸出的特征圖Fn+1相加后,得到第n級尺度粗略融合的特征圖RFn,并輸入到第n個尺度的跨通道的軟注意力機制單元SABlockn中,得到所述特征圖Fn-1的權重向量Wn-1、特征圖Fn的權重向量Wn和特征圖Fn+1的權重向量Wn+1,再利用式(2)獲得第n個尺度的跨通道的軟注意力機制單元SABlockn的輸出并作為第n級尺度的多尺度特征融合模塊MSFFn的輸出特征圖MSFFresultn;
MSFFresultn=Wn-1×Fn-1+Wn×Fn+Wn+1×Fn+1 (2)
當n=N時,以第n-1級尺度的特征圖Featuren-1和第n級尺度的特征圖Featuren共同作為所述第n級尺度的多尺度特征融合模塊MSFFn的輸入特征;所述第n-1級尺度的特征圖Featuren-1經過所述第n-1個下采樣層DOWNn-1后,得到下采樣后的特征圖Fn-1;所述第n級尺度的特征圖Featuren經過所述第n個特征提取層FEn后,得到特征圖Fn;將所述第n-1個下采樣層DOWNn-1輸出的特征圖Fn-1和第n個特征提取層FEn輸出的特征圖Fn相加后,得到第n級尺度粗略融合的特征圖RFn,并輸入到第n個尺度的跨通道的軟注意力機制單元SABlockn,得到所述特征圖Fn-1的權重向量Wn-1和所述特征圖Fn的權重向量Wn,再利用式(3)獲得第n個尺度的跨通道的軟注意力機制單元SABlockn的輸出并作為第n級尺度的多尺度特征融合模塊MSFFn的輸出特征圖MSFFresultn;
MSFFresultn=Wn-1×Fn-1+Wn×Fn (3)
步驟2.3、所述上采樣部分由N-1個坐標注意力上采樣模塊組成,記為{CAUn|n=1,…,N-1},其中,N表示尺度數,CAUn表示第n級尺度的坐標注意力上采樣模塊;第n級尺度的坐標注意力上采樣模塊CAUn由第n個上采樣層Upsamplen和第n個坐標注意力機制單元CABlockn組成;
所述第n個上采樣層Upsamplen由一個步長為1、卷積核大小為1的二維卷積層和雙線性插值上采樣層級聯而成;
所述坐標注意力機制CABlocki由水平方向和垂直方向的2個平均池化層、一個卷積核大小為1的二維卷積層、一個批歸一化層、一個非線性激活函數、兩個并行的步長為1、卷積核大小為1的二維卷積層以及兩個并行的Sigmoid激活函數層構成;
當n=N-1時,以第n+1級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn+1和第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn共同作為所述第n級尺度的坐標注意力上采樣模塊CAUn的輸入特征;所述第n+1級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn+1經過所述第n個上采樣層Upsamplen后,得到上采樣的特征圖UFn;將所述上采樣的特征圖UFn和所述第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn進行通道連接后,得到連接后的特征圖Concatn,并輸入到所述第n個坐標注意力機制單元CABlockn中,得到所述第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn在水平方向的權重圖hn和垂直方向的權重圖wn;再利用式(4)獲得第n個坐標注意力機制單元CABlockn的輸出并作為第n級尺度的坐標注意力上采樣模塊CAUn的輸出特征圖CAUresultn;
CAUresultn=UFn+MSFFresultn×hn×wn (4)
當n=1,…,N-2時,以第n+1級尺度的坐標注意力上采樣模塊CAUn+1的輸出特征圖CAUresultn+1和第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn共同作為所述第n級尺度的坐標注意力上采樣模塊CAUn的輸入特征,所述第n+1個尺度的坐標注意力上采樣模塊的輸出特征圖CAUresultn+1經過所述第n個上采樣層Upsamplen后,得到上采樣的特征圖UFn;將所述上采樣的特征圖UFn和所述第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn進行通道連接后,得到連接后的特征圖Concatn,并輸入到所述第n個坐標注意力機制單元CABlockn中,得到所述第n級尺度的多尺度特征融合模塊的輸出MSFFresultn在水平方向的權重圖hn和垂直方向的權重圖wn;再利用式(4)獲得第n個坐標注意力機制單元CABlockn的輸出并作為第n級尺度的坐標注意力上采樣模塊CAUn的輸出特征圖CAUresultn;
步驟2.4、所述多層監督部分為N個并行的預測層,記為{Pren|n=1,…,N},其中,N表示尺度數,Pren表示第n級尺度的預測層;其中,所述第n級尺度的預測層Pren由一個步長為1,、卷積核大小為3的二維卷積層以及一個Sigmoid激活函數層構成;
當n=1,…,N-1時,以第n級尺度的坐標注意力上采樣模塊CAUn的輸出特征圖CAUresultn作為所述第n級尺度的預測層Pren的輸入特征,并經過所述第n個預測層Pren后,得到預測的第n個尺度的聚焦圖MLSresultn;
當n=N時,以第n級尺度的多尺度特征融合模塊的輸出特征圖MSFFresultn作為所述第n級尺度的預測層Pren的輸入特征,并經過所述第n個預測層Pren后,得到預測的第n個尺度的聚焦圖MLSresultn;
將預測的N個尺度的聚焦圖MLSresult1,MLSresult2,…,MLSresultN作為所述多層監督部分的輸出,并將第1個尺度的聚焦圖MLSresult1作為所述多尺度特征交互網絡的輸出;
步驟2.5、利用式(5)建立損失函數L并作為多尺度特征交互網絡模型的優化目標:
式(5)中,為第n個尺度的加權二值交叉熵損失,并由式(6)得到;
式(6)中,H×W為聚焦圖的尺寸;γ是一個常數;是第n個尺度下分配給像素(h,w)的權重,并由式(7)得到;BCE(·,·)是二值交叉熵函數;是多層監督部分預測的聚焦圖MLSresultn在位置(h,w)的像素值;是第n個尺度的參考圖像Gn在位置(h,w)的像素值;
式(7)中,Ah,w為像素(h,w)周圍的鄰域;(m,n)為Ah,w中的像素;
步驟3、訓練網絡,得到預測表示像素聚焦屬性的聚焦圖的最優模型;
步驟3.1、按照步驟1的過程得到R對多聚焦圖像及其對應的R組參考圖像集;
步驟3.2、定義當前循環次數為t,并初始化t=0;定義最大迭代次數為E為預設的超分辨網絡訓練的最大輪數;Z為每次抽取的組數;
步驟3.3、網絡訓練;
從R對多聚焦圖像中第t次隨機抽取出X對多聚焦圖像輸入所述多尺度特征交互網絡中進行訓練,并獲得第t次訓練輸出的聚焦圖表示第t次訓練輸出的第z組聚焦圖中的第n個尺度的聚焦圖,z=1,2,…,Z;
從R對參考圖像中第t次對應取出Z個圖像,并進行縮放后得到N個尺度的參考圖像并作為優化目標來計算損失函數L,使得損失函數L在訓練過程中逐漸下降,當t>T時,訓練停止,并得到最優模型;其中,表示第t次取出的第x組聚焦圖中的第n個尺度的參考圖像;
步驟3.4、聚焦圖后處理;
步驟3.4.1、利用式(8)將最優模型輸出的聚焦圖進行二值化,得到二值化的初始決策圖T;
式(8)中,(x,y)表示像素位置;θ表示所設定的閾值;
步驟3.4.2、采用全連接條件隨機場算法對初始決策圖T進行細化,得到最終決策圖D;
步驟4、對最終決策圖D取反,得到互補掩膜D′;從而利用式(9)將最終決策圖D及其互補掩膜D′分別與多聚焦圖像IA和IB進行像素加權求和,并得到融合圖像IF;
IF(x,y)=D(x,y)×IA(x,y)+(D′(x,y))×IB(x,y) (9)
式(9)中,IF(x,y)表示融合圖像IF在(x,y)位置的像素值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于合肥工業大學,未經合肥工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110997261.5/1.html,轉載請聲明來源鉆瓜專利網。





