[發明專利]城市生活垃圾焚燒過程一燃室煙氣溫度預報方法在審
| 申請號: | 202110451164.6 | 申請日: | 2021-04-26 |
| 公開(公告)號: | CN113191078A | 公開(公告)日: | 2021-07-30 |
| 發明(設計)人: | 嚴愛軍;郭京承;李昂 | 申請(專利權)人: | 北京工業大學 |
| 主分類號: | G06F30/27 | 分類號: | G06F30/27;G06N3/04;G06N3/08;G06F119/08;G06F119/10 |
| 代理公司: | 北京思海天達知識產權代理有限公司 11203 | 代理人: | 劉萍 |
| 地址: | 100124 *** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 城市生活 垃圾 焚燒 過程 一燃室 煙氣 溫度 預報 方法 | ||
1.城市生活垃圾焚燒過程一燃室煙氣溫度預報方法,其特征在于,具體包括如下步驟:
(1)構建預報模型的訓練集;將各段爐排速度、一次風量、二次風量即如表1所示這62個特征變量的樣本數據作為訓練集的輸入X,一燃室煙氣溫度作為訓練集的輸出Y,組成樣本容量為N的訓練集D,如下式所示:
其中,n表示訓練集D中的第n組數據,R表示實數域,K表示訓練集D的輸入特征數量,此處K=62;
接著,對訓練集D中各個特征變量進行歸一化處理,如下式所示:
其中,k=1,2,…,K+1;n=1,2,…,N,此處N表示訓練樣本容量;表示歸一化后第n個樣本的第k個特征變量值,min(x1,k,…,xN,k)表示訓練集D中第k個特征變量的最小值,max(x1,k,…,xN,k)表示訓練集D中第k個特征變量的最大值,xn,k表示訓練集D中的第n個訓練樣本的第k個特征變量的值;
(2)參數初始化;令隨機配置網絡算法的最大隱含層神經元個數為Lmax,最大配置次數為Tmax,訓練預期誤差為ε,隱含層神經元的輸入權重和偏置的參數配置范圍為[-λ,+λ];
(3)采用隨機配置網絡算法確定預報模型的網絡初始結構及參數;隨機配置網絡算法的學習過程主要分為兩個階段:隱含層神經元參數的隨機配置和隱含層神經元輸出權重的評估;對于目標函數f:RK→R,假設隨機配置網絡的L-1個隱含層神經元已經配置完成,此時隨機配置網絡的輸出如式(3)所示:
其中,X表示訓練集的輸入;HL-1(X)={h1(X),h2(X),…,hL-1(X)}表示隱含層神經元數量為L-1時的隱含層輸出矩陣;表示HL-1(X)的轉置;β={β1,β2,…,βL-1}表示隱含層神經元的輸出權重矩陣,且β采用式(5)計算得出;wj和bj分別表示第j個隱含層神經元的輸入權重和偏置,且第j個隱含層神經元的輸出表示第j個隱含層神經元的激活函數,此處為Sigmoid函數,j=1,..,L-1;此時,隨機配置網絡的輸出殘差為eL-1(X)=f(X)-fL-1(X),其中f(X)表示輸入為X時目標函數的輸出;如果eL-1(X)的矩陣范數大于期望誤差ε,需根據式(4)的監督機制在[-λ,+λ]內隨機生成第L個隱含層神經元(wL和bL)并利用式(5)重新確定隨機配置網絡的隱含層輸出權重β*,直至殘差小于ε(ε的取值根據模型允許的誤差進行設置,此處ε=0.0001)或者隱含層神經元數量到達最大值Lmax;
其中,hL(X)表示第L個隱含層神經元的輸出;{μL}是非負實數序列,μL=(1-r)/L且常數r的取值范圍為(0,1);Y為訓練集的輸出;表示隱含層神經元數量為L時的隱含層輸出HL的偽逆;||·||F表示F-范數運算,此處λ=1,由于不等式(4)監督機制的約束,保證了網絡的通用逼近性質,因此,λ的取值對實驗結果基本沒有影響;
(4)對樣本中的異常值或噪聲的分布提出假設,推導預報模型隱含層輸出權重的最大后驗估計;假設訓練樣本中的異常值或噪聲ε服從由g個Student分布組成的混合分布,其概率密度函數如式(6)所示:
其中,g表示混合分布中子分布的數量,S(ε;0,σi,vi)表示第i個Student分布的位置參數為0、尺度參數為σi且自由度為vi,i=1,2,…,g;Ω={ω1,ω2,…,ωg}表示每個Student分布的權重系數的集合,ωi≥0且Σ={σ1,σ2,…,σg}表示每個Student分布的尺度參數的集合,V={v1,v2,…,vg}表示每個Student分布的自由度的集合,Γ(·)表示伽瑪函數,其計算表達式為且
此時,第n的訓練樣本的輸出yn的概率密度函數如下所示:
其中,β*表示隨機配置網絡的隱含層輸出權重,xn表示第n個訓練樣本的輸入向量,σi表示第i個Student分布的尺度參數,vi表示第i個Student分布的自由度,ωi表示第i個Student分布的權重系數,h(xn)表示第n個訓練樣本輸入到隨機配置網絡時的隱含層輸出,i=1,2,3;S(yn;h(xn)β*,σi,vi)表示位置參數為h(xn)β*、尺度參數為σi且自由度為vi的Student分布;
為了便于后續計算,在訓練集D內引入服從gamma(un;vi/2,vi/2)分布的潛變量U={u1,u2,…,uN},引入潛變量U后的訓練集表示為M={X,Y,U};此時可以將Student分布的概率密度函數可以表示為高斯分布與伽瑪分布的乘積形式;假設訓練集內所有的樣本相互獨立,則訓練集M的似然函數可表示為:
其中,S(yn;h(xn)β*,σi,vi)表示yn服從位置參數為h(xn)β*、尺度參數為σi以及自由度為vi的Student分布;un表示訓練集M中第n個樣本對應的潛變量;Gaussian(yn;h(xn)β*,σi2/un)表示均值為h(xn)β*且標準差為σi2/un的高斯分布;gamma(un;vi/2,vi/2)表示形狀參數和尺度參數均為vi/2的伽瑪分布;
根據貝葉斯定理,計算隱含層輸出權重β*后驗分布的公式是:
其中,表示隱含層輸出權重β*服從均值為0且方差為的高斯分布,表達式如下式所示:
其中,L表示隱含層神經元數量;
于是,式(8)對應的對數似然函數是:
其中,表示β*服從的高斯分布的方差,c為對數運算后產生的常數;
根據最大后驗估計估計算法,隨機配置網絡的隱含層輸出權重β*以及超參數可以通過下式計算得出:
根據期望最大算法,在數據集M的基礎上引入潛變量Z={z1,z2,…,zN}構成新的數據集T={X,Y,U,Z};其中,zn={z1n,z2n,…,zgn}(n=1,2,…,N,N表示訓練樣本容量;g為混合分布中子分布的數量)的概率分布如下式所示:
其中,zin表示集合Z中的第n個變量的第i個特征值,ωi表示第i個Student分布的權重系數;
此時,式(11)所示的似然函數可被更新為下式:
于是,隨機配置網絡的隱含層輸出權重β*的后驗估計的對數似然形式為:
其中c2為對數運算后產生的常數;
合并(10)、(14)和(15)可得:
(5)執行期望最大化算法的E-step,得到訓練集中各個潛變量的期望值;通過下式計算在給定訓練集D下的條件期望:
其中,E(·)表示數學期望,c3為期望運算后產生的常數;并且,由于后續進行求導運算,此處省略了與超參數無關的項;其中,在給定訓練集D情況下,zin的條件期望為γin;un的條件期望為χin;un的對數lnun的條件期望為θin,計算公式如式(18)、(19)和(20)所示:
其中,Ψ(·)表示Digamma函數,i=1,2,…,g,g表示混合分布中子分布的數量;
(6)執行期望最大化算法的M-step,得到混合分布的超參數及隱含層輸出權重的迭代解;使關于超參數最大化;令對的偏導數為0,對于i=1,2,…,g,第i個Student分布的權重系數以及尺度參數的迭代如(21)和(22)所示:
其中,q表示期望最大化算法的迭代次數,表示第q+1次迭代后第i個Student分布的權重系數;表示第q+1次迭代后第i個Student分布的尺度參數;χin、θin以及γin分別由式(18)、(19)和(20)計算得出;h(xn)表示SCN網絡的隱含層輸出;β*表示隱含層輸出權重;
為了提高期望最大化算法的收斂速度,將式(22)的分子替換為后得到:
第i個Student分布的自由度按下式計算得出:
其中,和分別表示第q次迭代和第q+1次迭代后第i個Student分布的自由度;
此處,針對式(24)沒有解析解的問題,采用牛頓迭代法求取的近似解;
的迭代計算公式是:
其中,表示第q+1次迭代后β*的先驗分布的方差,L為隨機配置網絡隱含層神經元數量;
輸出權重β*的迭代公式是:
β*(q+1)=(HT(X)Φ(q+1)H(X)+IL)-1(HT(X)Φ(q+1)Y) (26)
其中,HT(X)表示輸入矩陣為X時隨機配置網絡的隱含層輸出矩陣的轉置;IL表示L維單位矩陣;為維度為N的對角矩陣,該矩陣表示訓練樣本的懲罰權重矩陣,第n個訓練樣本的懲罰權重的q+1次跌代解的計算公式如下:
(7)重復上述步驟(5)和(6),直至得出混合Student分布的超參數并且完成預報模型的訓練過程;當期望的變化率滿足如下的不等式(28)時,認為期望最大化算法收斂同時預報模型的訓練過程結束;
其中,η表示趨于0的正數,此處取值為10-6;
表1變量明細
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京工業大學,未經北京工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110451164.6/1.html,轉載請聲明來源鉆瓜專利網。





