[發明專利]一種基于遷移學習的圖像能見度檢測方法有效
| 申請號: | 201810515767.6 | 申請日: | 2018-05-25 |
| 公開(公告)號: | CN108875794B | 公開(公告)日: | 2020-12-04 |
| 發明(設計)人: | 李騫;唐紹恩;馬強;馬爍 | 申請(專利權)人: | 中國人民解放軍國防科技大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 江蘇圣典律師事務所 32237 | 代理人: | 胡建華;于瀚文 |
| 地址: | 410005 湖*** | 國省代碼: | 湖南;43 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 遷移 學習 圖像 能見度 檢測 方法 | ||
1.一種基于遷移學習的圖像能見度檢測方法,其特征在于,包括以下步驟:
步驟1,訓練能見度檢測模型:輸入訓練集圖像,對訓練集中每幅圖像進行子區域圖像劃分;通過預訓練的VGG-16深度神經網絡編碼,提取各子區域圖像對應的N維特征向量;利用各子區域圖像特征向量和能見度標注值訓練支持向量回歸機,得到能見度檢測模型;
步驟2,能見度檢測模型測試:輸入測試圖像,對測試圖像進行子區域圖像劃分;通過預訓練的VGG-16深度神經網絡編碼,提取各子區域圖像對應的N維特征向量;將各子區域圖像特征向量代入步驟1訓練的能見度檢測模型,經回歸預測得到各子區域能見度估計值;融合各子區域能見度估計值,輸出整幅圖像能見度檢測值;
步驟1包括以下步驟:
步驟1-1,對訓練集中每幅圖像進行子區域圖像劃分:將訓練集中每幅圖像劃分為RegionNum個子區域,每個子區域分辨率為224×224,其中,ImageWidth表示訓練集圖像的寬度,ImageHeight表示訓練集圖像的高度,表示向上取整;子區域Region(i,j)的左上角像素橫坐標和縱坐標分別為:
i、j分別表示子區域Region(i,j)在圖像子區域集合中的行數和列數,表示向下取整;子區域Region(i,j)的右上角像素橫坐標和縱坐標分別為子區域Region(i,j)的左下角像素橫坐標和縱坐標分別為子區域Region(i,j)的右下角像素橫坐標和縱坐標分別為
步驟1-2,深度神經網絡編碼:依次將各子區域圖像輸入預訓練的VGG-16深度神經網絡,提取第三個全連接層輸出的N維特征向量,作為該子區域圖像特征向量vi;
步驟1-3,訓練支持向量回歸機:利用子區域圖像特征向量和對應能見度真值訓練支持向量回歸機,得到圖像特征和能見度的回歸模型,即能見度檢測模型;
步驟1-3包括以下步驟:
步驟1-3-1:構建樣本集:將一幅子區域圖像經步驟1-3提取的特征向量vi作為樣本特征對應區域的能見度標注值yi作為樣本目標值,構成一組樣本設定訓練集樣本圖像數量為ImageNum,則子區域圖像數量為ImageNum×RegionNum,即共有ImageNum×RegionNum組訓練樣本,將訓練樣本集記為表示訓練樣本集中第i組訓練樣本;n為訓練樣本數量,數值上等于子區域圖像總數,即n=ImageNum×RegionNum;
步驟1-3-2:建立回歸模型:利用樣本集數據訓練支持向量回歸機,得到能見度回歸模型,即能見度檢測模型;
步驟1-3-3:參數尋優:通過網絡搜索和交叉驗證,尋找回歸模型的最佳參數;
步驟1-3-2包括以下步驟:
步驟1-3-2-1:建立如下優化目標和約束條件:
其中,s.t.表示約束條件,ω為超平面權重系數列向量,ωT表示其轉置,ε為回歸函數誤差限值,C為懲罰因子,ξi和分別為松弛變量上界和松弛變量下界,是將訓練樣本映射到高維線性空間的非線性函數,b是超平面的常系數;
步驟1-3-2-2:對偶變換求解:引入Lagrange函數,對步驟1-3-2-1建立的優化目標和約束條件作對偶變換求解,變換后等價形式為:
其中,αi和為Lagrange乘子,為核函數,γ為核函數參數,j取值范圍為1~n;
步驟1-3-2-3:確定含參非線性方程:求解步驟1-3-2-2的等價形式,得到Lagrange乘子最優解向量其中αi和表示第i組訓練樣本對應的一組對偶Lagrange乘子,則有:
其中,SV表示支持向量,即滿足|yi-f(xi)|=ε的SV為支持向量的數量,表示待測圖像的子區域特征向量,故非線性方程為:
步驟1-3-3包括以下步驟:
步驟1-3-3-1:網絡搜索:設定參數ε的取值區間為[εmin,εmax]、C的取值區間為[Cmin,Cmax]、核函數參數γ的取值區間為[γmin,γmax],設定參數ε的步長為εstep、C的步長為Cstep、核函數參數γ的步長為γstep,順序算出對應各參數的組合(εmin+uε×εstep,Cmin+uC×Cstep,γmin+uγ×γstep),其中uε、uC和uγ為正整數,且εmin+uε×εstep≤εmax,Cmin+uC×Cstep≤Cmax,γmin+uγ×γstep≤γmax,對每一種組合進行交叉驗證,逐一比較各種組合的均方誤差并擇優,從而確定該區間內最優參數組合[ε*,C*,γ*],ε*為參數ε的最優選擇,C*為參數C的最優選擇,γ*為核函數參數γ的最優選擇;
步驟1-3-3-2:確定最終回歸模型:將步驟1-3-3-1得到的最優參數組合[ε*,C*,γ*]代入步驟1-3-2-3,確定最終回歸模型即得到了能見度檢測模型;
步驟1-3-3-1中所述對每一種組合進行交叉驗證,具體包括:
對于一組給定的參數組合:
[εmin+uε×εstep,Cmin+uC×Cstep,γmin+uγ×γstep],
其中uε、uC和uγ為正整數,將訓練樣本集S進行隨機等分為v份,將其中的v-1份作為訓練樣本,余下的1份作為測試圖像,共得到v組交叉驗證所用的訓練樣本及相應的測試圖像,將訓練樣本作為支持向量回歸機的輸入,建立回歸模型,并用對應的測試圖像校驗擬合效果,依次輪換進行,得到v個表征擬合效果的均方誤差MSE,選取最小的均方誤差作為本參數組合的均方誤差MSEi,MSE表達式如下所示:
其中,t是每組測試圖像的樣本個數,yi*是模型輸出能見度值;
步驟2包括以下步驟:
步驟2-1,測試圖像區域劃分:將測試圖像劃分子區域;
步驟2-2,深度神經網絡編碼:依次將各子區域圖像輸入預訓練的VGG-16深度神經網絡,提取第三個全連接層輸出的N維特征向量,作為該子區域圖像特征向量fc(r,c);
步驟2-3,回歸預測:將各子區域特征向量輸入訓練得到的回歸模型f(x)*,計算子區域能見度序列;
步驟2-4,子區域能見度融合:將各子區域能見度估計值取平均,作為整幅圖像能見度檢測值vt;
步驟2-3包括以下步驟:
步驟2-3-1,單一子區域能見度估計:將子區域圖像特征向量fc(r,c)輸入步驟1-3-3-2獲取的回歸模型令計算得到子區域能見度估計值f(r,c)*;
步驟2-3-2,子區域能見度序列估計:將各子區域圖像依次執行步驟2-3-1,獲得子區域能見度序列;
步驟2-4中通過如下公式計算整幅圖像能見度檢測值vt:
其中,RegionNum為子區域數量,
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中國人民解放軍國防科技大學,未經中國人民解放軍國防科技大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810515767.6/1.html,轉載請聲明來源鉆瓜專利網。
- 彩色圖像和單色圖像的圖像處理
- 圖像編碼/圖像解碼方法以及圖像編碼/圖像解碼裝置
- 圖像處理裝置、圖像形成裝置、圖像讀取裝置、圖像處理方法
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像解密方法、圖像加密方法、圖像解密裝置、圖像加密裝置、圖像解密程序以及圖像加密程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序以及圖像解碼程序
- 圖像編碼方法、圖像解碼方法、圖像編碼裝置、圖像解碼裝置、圖像編碼程序、以及圖像解碼程序
- 圖像形成設備、圖像形成系統和圖像形成方法
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序
- 圖像編碼裝置、圖像編碼方法、圖像編碼程序、圖像解碼裝置、圖像解碼方法及圖像解碼程序





