[發(fā)明專利]一種基于深度學習模型的回收瓶分類方法在審
| 申請?zhí)枺?/td> | 202010884925.2 | 申請日: | 2020-08-28 |
| 公開(公告)號: | CN112016462A | 公開(公告)日: | 2020-12-01 |
| 發(fā)明(設計)人: | 楊海東;李俊宇;黃坤山;彭文瑜;林玉山 | 申請(專利權)人: | 佛山市南海區(qū)廣工大數(shù)控裝備協(xié)同創(chuàng)新研究院;佛山市廣工大數(shù)控裝備技術發(fā)展有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04;B07C5/12;B07C5/342 |
| 代理公司: | 廣州科沃園專利代理有限公司 44416 | 代理人: | 馬盼 |
| 地址: | 528200 廣東省佛山*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 深度 學習 模型 回收 分類 方法 | ||
本發(fā)明公開了一種基于深度學習模型的回收瓶分類方法,包括如下步驟:S01:獲取回收瓶圖像,對各個回收瓶圖像進行標注和定義類別,形成訓練圖像數(shù)據(jù)集、驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集;S02:建立深度學習模型,采用訓練圖像數(shù)據(jù)集對所述深度學習模型進行訓練;S03:采用驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集對訓練之后的深度學習模型進行驗證和測試,若驗證或測試結果達不到設定值,則返回步驟S02繼續(xù)進行深度學習模型訓練;若驗證或測試結果達到設定值,則得到預測模型;S04:對預測模型加載在回收裝置中,所述預測模型的輸出結果控制機械手對回收瓶進行分類。本發(fā)明提供的的一種基于深度學習模型的回收瓶分類方法,用以提高回收瓶的識別和回收效率。
技術領域
本發(fā)明涉及計算機視覺領域,具體涉及一種基于深度學習模型的回收瓶分類方法。
背景技術
隨著我國對生態(tài)保護和環(huán)境衛(wèi)生的重視程度不斷提升,對垃圾的回收利用越來越規(guī)范化和產業(yè)化,在垃圾回收過程中希望垃圾回收的效率得到提升,因此智能化垃圾處理和回收行業(yè)快速發(fā)展。利用自動化設備來分擔一部分人工分揀垃圾的工作,以此提高回收效率和質量。
其中自動化設備中涉及到深度學習、計算機視覺和圖像處理等領域。目前,由于垃圾的數(shù)量巨大,而且垃圾回收處理行業(yè)的人員較少,大多非青壯年,回收環(huán)境較差,人工分揀處理,效率較低,誤檢率較高。尤其對于垃圾中的回收瓶,其回收價值高,若能實現(xiàn)高效回收,既能節(jié)約資源,也能變廢為寶,創(chuàng)造新的價值。
若能利用自動化設備分揀,采用深度學習的目標檢測算法,在環(huán)境穩(wěn)定的環(huán)境下,識別準確且能實時返回檢測給分揀自動化設備,則能集中化、高效率的完成垃圾分揀工作,大大減少人的工作量。因此,如何訓練出能夠準確識別垃圾類別的深度學習模型成為急需解決的問題。
發(fā)明內容
針對現(xiàn)有技術的不足,本發(fā)明的目的旨在提供一種基于深度學習模型的回收瓶分類方法,用以提高回收瓶的識別和回收效率。
為實現(xiàn)上述目的,本發(fā)明采用如下技術方案:一種基于深度學習模型的回收瓶分類方法,包括如下步驟:
S01:獲取回收瓶圖像,對各個回收瓶圖像進行標注和定義類別,形成訓練圖像數(shù)據(jù)集、驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集;
S02:建立深度學習模型,采用訓練圖像數(shù)據(jù)集對所述深度學習模型進行訓練;所述深度學習模型包括主分支網絡、預測分支和修正分支;
S03:采用驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集對訓練之后的深度學習模型進行驗證和測試,若驗證或測試結果達不到設定值,則返回步驟S02繼續(xù)進行深度學習模型訓練;若驗證或測試結果達到設定值,則得到預測模型;
S04:對預測模型加載在回收裝置中,所述預測模型的輸出結果控制機械手對回收瓶進行分類。
進一步的,所述步驟S01具體包括:
S011:利用工業(yè)相機拍攝傳送帶上回收瓶視頻;
S012:提取視頻中相同幀間隔的圖像,獲得回收瓶圖像;
S013:刪除回收瓶圖像中不合格圖像,對剩余圖像進行標注和定義類別;
S014:將標注和定義類別之后的圖像分類形成訓練圖像數(shù)據(jù)集、驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集。
進一步的,所述步驟S014中訓練圖像數(shù)據(jù)集、驗證圖像數(shù)據(jù)集和測試圖像數(shù)據(jù)集中圖像的個數(shù)比例為6:2:2。
進一步的,所述主分支網絡包括特征提取部分和定位部分,所述預測分支和修正分支嵌入在特征增強部分和定位部分之間。
進一步的,所述深度學習模型采用RepPointsV2模型。
進一步的,所述主分支網絡為anchor-free目標預測模型。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于佛山市南海區(qū)廣工大數(shù)控裝備協(xié)同創(chuàng)新研究院;佛山市廣工大數(shù)控裝備技術發(fā)展有限公司,未經佛山市南海區(qū)廣工大數(shù)控裝備協(xié)同創(chuàng)新研究院;佛山市廣工大數(shù)控裝備技術發(fā)展有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010884925.2/2.html,轉載請聲明來源鉆瓜專利網。





