[發(fā)明專利]基于深度學習的實時布匹缺陷檢測方法及系統(tǒng)有效
| 申請?zhí)枺?/td> | 202110334060.7 | 申請日: | 2021-03-29 |
| 公開(公告)號: | CN112802016B | 公開(公告)日: | 2023-08-08 |
| 發(fā)明(設計)人: | 張勇;顏庚瀟;趙東寧;廉德亮;梁長垠;曾慶好;何欽煜 | 申請(專利權)人: | 深圳大學 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06F18/20;G06V10/82;G06N3/0464;G06N3/084 |
| 代理公司: | 深圳市壹壹壹知識產(chǎn)權代理事務所(普通合伙) 44521 | 代理人: | 阮帆 |
| 地址: | 518000 廣東省深*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 深度 學習 實時 布匹 缺陷 檢測 方法 系統(tǒng) | ||
1.一種基于深度學習的實時布匹缺陷檢測方法,其特征在于,包括:
步驟1:采集不同種類布匹缺陷圖像,構建缺陷數(shù)據(jù)集;
步驟2:先對缺陷數(shù)據(jù)集的圖像進行數(shù)據(jù)擴充,再使用生成對抗網(wǎng)絡對缺陷數(shù)據(jù)集進行數(shù)據(jù)擴充;
步驟3:對擴充后的缺陷數(shù)據(jù)集進行標注處理;
步驟4:構建深度學習目標檢測網(wǎng)絡進行布匹缺陷檢測;
步驟5:訓練布匹缺陷檢測網(wǎng)絡;
步驟6:利用攝像機對布匹進行實時圖像抓取,將抓取的圖像輸入到訓練好的布匹缺陷檢測網(wǎng)絡中判斷圖像中是否存在缺陷并確定缺陷類別,定位缺陷,最后將結果保存到輸出文件中;
步驟2中,生成對抗網(wǎng)絡由一個生成器G和一個判別器D構成,生成器G接收一個正常的布匹圖像z,然后生成帶有指定缺陷的圖像G(z),再經(jīng)過判別器D判斷圖像是否屬于原始數(shù)據(jù)集,得到D(G(z)),生成對抗網(wǎng)絡的優(yōu)化公式為:
其中,x表示真實布匹缺陷圖像,z表示輸入生成器G的正常布匹圖像,G(z)表示生成器G生成的缺陷圖像,D(x)表示判別器D判斷真實缺陷圖像是否真實的概率,該概率的值越接近1越好,D(G(z))表示判別器D判斷生成器G生成的圖像是否真實的概率,pdata表示真實數(shù)據(jù)的分布,pz表示生成器輸入圖像的分布,表示期望,表示判別器D判別樣本是否是從pdata(x)中取出來的期望,表示生成器G生成圖像能夠騙過判別器的期望;
步驟4中,采用YOLOv3檢測網(wǎng)絡架構,并采用Leaky?ReLU作為激活函數(shù),其表達式為:
其中xi表示輸入,yi表示輸出,ai是(1,+∞)區(qū)間內的固定參數(shù);
在YOLOv3中,整體loss分為位置坐標損失lbox、置信度損失lobj以及類別損失lcls三部分,公式如下所示:
lloss=lbox+lobj+lcls;
其中,λcoord表示定位誤差的權值;xi,yi,wi,hi表示預測的目標框的位置信息,分別表示框的左上角處的橫坐標,縱坐標以及框的寬度和高度;S2表示網(wǎng)格數(shù)有S*S個,具體為13*13,26*26,52*52,B表示每個網(wǎng)格產(chǎn)生B個候選框anchor?box,表示第i個網(wǎng)格的第j個anchor?box負責預測這個目標的概率,如果負責,則否則該值為0,表示第i個網(wǎng)格的第j個anchor?box不負責預測該目標的概率,與正好相反;pi(c)表示屬于類別c的概率;ci表示類別標簽置信度,表示預測的類別置信度。
2.如權利要求1所述的基于深度學習的實時布匹缺陷檢測方法,其特征在于,步驟1中,布匹缺陷種類分為正常、黑點、劃痕、孔、油漬、毛斑、破邊、缺經(jīng)、缺緯、吊弓中的一種或多種,并將采集的圖像的比例切割成512*512大小進行分類。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于深圳大學,未經(jīng)深圳大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110334060.7/1.html,轉載請聲明來源鉆瓜專利網(wǎng)。
- 上一篇:一種水熱法合成納米氧化鈰的方法
- 下一篇:一種機芯型漏斗式免抓牌全自動棋牌機





