[發明專利]一種基于深度信賴網絡的超分辨率人臉識別方法無效
| 申請號: | 201210387504.4 | 申請日: | 2012-10-12 |
| 公開(公告)號: | CN102902966A | 公開(公告)日: | 2013-01-30 |
| 發明(設計)人: | 樊鑫;林妙真 | 申請(專利權)人: | 大連理工大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62 |
| 代理公司: | 大連理工大學專利中心 21200 | 代理人: | 梅洪玉 |
| 地址: | 116024*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 信賴 網絡 分辨率 識別 方法 | ||
1.一種基于深度信賴網絡的超分辨率人臉識別方法,其特征在于包含以下步驟:
1)對低分辨率圖像進行最近鄰插值、雙線性插值或者雙三次插值,使得高低分辨率圖像的維度一致;
2)將維度一致的帶有姿態差異的高低分辨率人臉圖像灰度歸一到(0,1)之間,并作為深度信賴網絡的可視向量v輸入到網絡中,深度信賴網絡由多層的受限的波爾茲曼機構成;所述的受限的波爾茲曼機是一種特殊的神經網絡模型,具有對稱的連接權系數,網絡由可視單元v∈{0,1}D和隱層單元h∈{0,1}F構成;
3)然后,訓練深度信賴網絡;
4)將經過最近鄰插值、雙線性插值或者雙三次插值的測試低分辨率圖像輸入到深度信賴網絡,由深度信賴網絡給出最終的識別結果。
2.如權利要求1所述的超分辨率人臉識別方法,其特征在于:所述的步驟2)是指:帶有姿態差異的高低分辨率人臉圖像其分辨率為h×w,將其展開成為一行長度為h×w的向量,并將其灰度強度歸一到(0,1)。
3.如權利要求1或2所述的超分辨率人臉識別方法,其特征在于:所述的步驟3)中的訓練深度信賴網絡包含以下步驟:
將深度信賴網絡分解成由相鄰兩層構成的一系列受限的玻爾茲曼機,逐層訓練參數;
1)初始化深度信賴網絡:首先將經驗數據v作為輸入,訓練第一層受限波爾茲曼機的權值系數矩陣W1;接著將W1固定,通過p(h1|v)=p(h1|v,W1),訓練出第一層受限波爾茲曼機的隱層向量h1;將h1作為第二層受限波爾茲曼機的輸入,訓練第二層受限波爾茲曼機的權值系數矩陣W2;遞歸地計算出每一層的隱含單元向量和權值系數矩陣;
2)微調:為達到分類目的,在最后一層網絡再添加一層邏輯回歸層,并采用梯度下降法訓練整個網絡。
4.如權利要求3所述的超分辨率人臉識別方法,其特征在于:所述的初始化深度信賴網絡,計算權值和隱層單元的包括以下特征:
通過經驗數據估計模型參數或隱層單元狀態:狀態{v,h}的能量方程定義為:
E(v,h;θ)=-vTWh-bTv-aTh????????????(1)
其中θ={W,a,b}為參數,W可視層和隱層之間對稱的連接權系數,a和b為基矩陣,可視向量與隱層向量的聯合分布矩陣為:
設Edata[.]為數據完整分布pdata(v,h;θ)=p(h|v;θ)pdata(v)的期望,其中pdata(v)為數據的先驗知識,Emodel[.]為公式(2)代表的模型期望,則由公式(3~5)求得最優的參數θ={W,a,b}或者相應的隱層狀態向量h。
其中α為學習率。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于大連理工大學,未經大連理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201210387504.4/1.html,轉載請聲明來源鉆瓜專利網。
- 上一篇:一種改進梁
- 下一篇:一種含納米凹凸棒的聚酰胺熱塑性彈性體及其制備方法





