[發明專利]一種數控機床運行狀態健康診斷系統及診斷方法有效
| 申請號: | 201910980485.8 | 申請日: | 2019-10-16 |
| 公開(公告)號: | CN110554657B | 公開(公告)日: | 2023-03-03 |
| 發明(設計)人: | 楊澤青;李月;陳英姝;劉麗冰;張艷蕊;馬玉瓊;馮慧娟;彭凱;楊偉東 | 申請(專利權)人: | 河北工業大學 |
| 主分類號: | G05B19/406 | 分類號: | G05B19/406 |
| 代理公司: | 天津翰林知識產權代理事務所(普通合伙) 12210 | 代理人: | 王瑞 |
| 地址: | 300130 天津市紅橋區*** | 國省代碼: | 天津;12 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 數控機床 運行 狀態 健康 診斷 系統 方法 | ||
1.一種數控機床運行狀態健康診斷系統,其特征在于該系統包括邊緣數據采集模塊、云平臺和客戶端;云平臺分別與邊緣數據采集模塊和客戶端連接;
所述云平臺包括預測性診斷模塊、信息管理及存儲模塊和應用服務器;所述應用服務器與邊緣數據采集模塊單向連接,用于邊緣數據采集模塊向應用服務器傳輸實時基礎數據;應用服務器與預測性診斷模塊雙向連接;預測性診斷模塊接收應用服務器轉發的實時基礎數據,對機床的實時健康狀況進行診斷,得到實時診斷數據并發送給應用服務器;預測性診斷模塊接收應用服務器轉發的來自客戶端的處理后零件表面紋理圖像與加工基本信息,生成加工后診斷數據;預測性診斷模塊根據加工后診斷數據和實時診斷數據生成綜合診斷數據發送給應用服務器;應用服務器與信息管理及存儲模塊雙向連接,用于應用服務器向信息管理及存儲模塊傳輸實時診斷數據、綜合診斷數據、處理后零件表面紋理圖像、實時基礎數據和加工基本信息并且信息管理及存儲模塊對其進行分類存儲,以及信息管理及存儲模塊接收應用服務器轉發的來自客戶端的調取歷史診斷數據請求后向應用服務器傳輸歷史診斷數據;應用服務器與客戶端雙向連接,用于應用服務器向客戶端傳輸實時基礎數據、實時診斷數據、綜合診斷數據、歷史診斷數據和診斷結果,以及客戶端向應用服務器傳輸處理后零件表面紋理圖像、加工基本信息和調取歷史診斷數據請求;
基于該數控機床運行狀態健康診斷系統的數控機床運行狀態健康診斷方法,包括以下步驟:
步驟1、系統的安裝:
(1)將數據采集設備中的各個部分安裝到數控機床的適當位置;
(2)安裝數據初步處理模塊,并與數據采集設備的各個部分連接;
(3)將云平臺的各個部分部署到指定位置并與邊緣數據采集模塊連接,且預測性診斷模塊已經訓練完成;
(4)部署客戶端并將客戶端與云平臺連接;
步驟2、對數控機床運行狀態進行健康診斷:
(1)數據采集設備采集機床的各項狀態數據和正在執行的加工指令,得到原始實時數據;再將原始實時數據發送至數據初步處理模塊;
(2)數據初步處理模塊對原始實時數據進行數據運算,并支持邊緣計算以及數據打包和壓縮處理,得到實時基礎數據,然后發送至應用服務器;
(3)應用服務器將實時基礎數據轉發給實時診斷模塊、信息管理及存儲模塊和客戶端;
(4)實時診斷模塊使用遞歸神經網絡或其變種的神經網絡對實時基礎數據進行分析處理,得到實時診斷數據;然后將實時診斷數據發送至應用服務器和綜合診斷模塊;應用服務器再將實時診斷數據發送至信息管理及存儲模塊和客戶端;
(5)在加工完成后,工作人員利用客戶端得到加工后零件表面紋理圖像,再對圖像進行預處理,得到處理后零件表面紋理圖像;再將處理后零件表面紋理圖像和加工基本信息傳輸至應用服務器;
(6)應用服務器將處理后零件表面紋理圖像和加工基本信息發送至加工后診斷模塊和信息管理及存儲模塊;
(7)加工后診斷模塊使用卷積神經網絡或其變種的神經網絡對處理后零件表面紋理圖像和加工基本信息進行分析處理,得到加工后診斷數據,并發送至綜合診斷模塊;
(8)綜合診斷模塊使用多層感知機對加工后診斷數據和實時診斷數據進行分析處理,得到綜合診斷數據并發送至應用服務器;
(9)應用服務器將綜合診斷數據發送至客戶端和信息管理及存儲模塊;工作人員查看實時診斷數據、處理后零件表面紋理圖像、加工基本信息、綜合診斷數據和診斷結果,實現對系統的健康診斷;
所述多層感知機采用全相聯神經網絡;全相聯神經網絡包含一個隱含層、一個輸入層和一個輸出層,其中隱含層包含40個神經元,輸入層包含20個神經元,輸出層包含10個神經元;對于全相聯神經網絡,在輸入標號為第k代樣本時,實時診斷數據表示為Xr,k與加工后診斷數據表示為Xp,k做向量拼接⊕,得到的結果傳遞給輸入層通過相應的運算,得到輸入層輸出Oi,k;再將輸入層
輸出Oi,k傳遞給隱含層通過相應的運算,得到隱含層輸出Oh,k;再將隱含層輸出Oh,k傳遞給輸出層通過相應的運算,得到實際輸出為Yk;隱含層、輸入層和輸出層為使用Sigmoid激活函數的神經元;
上述過程的具體的公式表示如式1)-式3)所示:
Oh,k=σ(WhOi,k+bh)2)Yk=σ(WoOh,k+bo)3)式1)-式3)中,Xr,k為實時診斷數據輸入;Xp,k為加工后診斷數據輸入;⊕為向量拼接操作;Oi,k為輸入層輸出;Oh,k為隱含層輸出;Yk為神經網絡在輸入Xr,k和Xp,k時的實際輸出;下標k表示訓練樣本的編號,即第k個樣本;Wi和bi分別表示輸入層的權重矩陣和偏置矩陣;Wh和bh分別表示隱含層的權重矩陣和偏置矩陣;Wo和bo分別表示輸出層的權重矩陣和偏置矩陣;σ(·)函數表示Sigmoid函數,為該神經網絡的激活函數;
定義全相聯神經網絡的誤差ek如式4)所示:
ek=(Yk′-Yk)2 4)式4)中,Yk為神經網絡的實際輸出,Yk′為神經網絡的期望輸出;
則訓練全相聯神經網絡的過程是求ek對式1)-式3)中的各個參數的梯度,并利用這些梯度調整各個參數以最小化ek的過程;各個參數指Wi、bi、Wh、bh、Wo和bo;
遞歸神經網絡采用LSTM網絡;對于LSTM網絡,在輸入標號為第k代樣本時,當前實時基礎數據表示為Xr,t,k與上步實時診斷數據ht-1,k做向量拼接得到總體輸入Xt,k;總體輸入Xt,k分別傳遞給以遺忘門、輸入門、新記憶元和輸出門通過相應的運算,得到遺忘門輸出ft,k、輸入門輸出it,k、新記憶元輸出ct′,k以及輸出門輸出ot,k;遺忘門輸出ft,k與上步的LSTM內部狀態ct-1,k相乘*,以確定之前的記憶是否將對此時的操作產生影響,得到的結果為長期記憶m;輸入門輸出it,k與新記憶元輸出ct′,k相乘,得到的結果為短期記憶m′;短期記憶m′與長期記憶m相加,傳遞到最終記憶元,由最終記憶元通過相應的運算產生該步的LSTM內部狀態ct,k;將該步的LSTM內部狀態ct,k與輸出門輸出ot,k相乘*,得到該步的實時診斷數據ht,k;遺忘門、輸入門和輸出門為使用Sigmoid激活函數的神經元;新記憶元和最終記憶元為使用tanh激活函數的神經元;
上述過程的具體的公式表示如式5)-13)所示:
it,k=σ(WiXt,k+bi) 6)
ft,k=σ(WfXt,k+bf) 7)
ot,k=σ(WoXt,k+bo) 8)
c′t,k=tanh(WcXt,k+bc) 9)
m=ft,k*ct-1,k 10)
m′=it,k*c′t,k 11)
ct,k=tanh(m+m′) 12)
ht,k=ot,k*ct,k 13)
式5)-式13)中,Xr,t,k表示當前實時基礎數據輸入;ht-1,k為上步實時診斷數據輸入;下標k表示訓練樣本的編號,即第k個樣本;Xt,k為總體輸入;ft,k為遺忘門輸出,it,k為輸入門輸出;ot,k為輸出門輸出;c′t,k為新記憶元輸出;ct-1,k為上步的LSTM內部狀態;m為長期記憶輸出;m′為短期記憶輸出;ct,k為該步的LSTM內部狀態;ht,k為該步的實時診斷數據;*為Hadamard積;+為向量加操作;為向量拼接操作;tanh(·)為tanh激活函數;σ(·)為Sigmoid激活函數;Wi與bi分別表示輸入門的權重矩陣和偏置矩陣;Wf與bf分別表示遺忘門的權重矩陣和偏置矩陣;Wc與bc分別表示新記憶元的權重矩陣和偏置矩陣;Wo與bo分別表示輸出門的權重矩陣和偏置矩陣;
定義LSTM網絡的誤差et,k為如式14)所示:
et,k=(h′t,k-ht,k)2 14)
式14)中,h′t,k為神經網絡的期望輸出;
則訓練遞歸神經網絡的過程是求et,k對式5)-式13)中的各個參數的梯度,并利用這些梯度調整各個參數以最小化et,k的過程;各個參數指Wi、Wf、Wo、Wc、bi、bf、bo和bc;
卷積神經網絡為LeNet-5網絡;將處理后零件表面紋理圖像輸入第一卷積層中;第一卷積層使用6個特征圖,卷積核大小為5*5,步長為1,輸出特征圖大小為28*28,激活函數為ReLU;第一池化層使用6個特征圖,卷積核大小為2*2,步長為2,輸出特征圖大小為14*14,池化方法為求和;第二卷積層使用16個特征圖,卷積核大小為5*5,步長為1,輸出特征圖大小為10*10,激活函數為ReLU;第二池化層使用16個特征圖,卷積核大小為2*2,步長為2,輸出特征圖大小5*5,池化方法為求和;將加工基本信息輸入第三卷積層中;第三卷積層使用150個特征圖,其中120個特征圖來自第二池化層,30個特征圖來自加工基本信息,卷積核大小為5*5,步長為2,輸出特征圖大小為1×1,激活函數為ReLU;第一全相聯層為一個普通的隱含層,包含84個神經元;第二全相聯層為一個使用了10個神經元的輸出層;
對于LeNet-5網絡,由于卷積神經網絡包括卷積層、池化層和全相聯層;全相聯層的訓練方法與全相聯神經網絡相同,下面介紹池化層和卷積層的訓練方法;
對于池化層,從該層的輸出誤差反向推導其輸入誤差的公式為:
el-1=upsample(el)*ol-1 15)
式15)中,ol-1為前一層的輸出;el-1為前一層的誤差;*為Hadamard積;upsample(·)為上采樣函數,上采樣函數為平均函數,將el分四平均,得到一個2*2矩陣;el為該層的誤差;在池化層僅將誤差進行反向傳播;
對于卷積層,其輸入誤差與輸出誤差之間的關系為:
el-1=el*rot180(Wl)*ol-1 16)
式16)中,Wl為該層的卷積核;rot180(·)函數為旋轉函數,它將輸入矩陣做一次水平翻轉和一次豎直翻轉;訓練卷積層的過程為更新卷積核的過程。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于河北工業大學,未經河北工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910980485.8/1.html,轉載請聲明來源鉆瓜專利網。





