[發明專利]一種基于yolov5的魚類檢測與識別方法在審
| 申請號: | 202011551413.0 | 申請日: | 2020-12-24 |
| 公開(公告)號: | CN112668450A | 公開(公告)日: | 2021-04-16 |
| 發明(設計)人: | 段連元 | 申請(專利權)人: | 南京泓圖人工智能技術研究院有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/32;G06K9/46;G06K9/62;G06N3/08 |
| 代理公司: | 天津垠坤知識產權代理有限公司 12248 | 代理人: | 王忠瑋 |
| 地址: | 210019 江蘇省南京*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 yolov5 魚類 檢測 識別 方法 | ||
本發明提供一種基于yolov5的魚類檢測與識別方法,包括,獲取含有魚類的若干圖片,將獲取的若干圖片按預定比例分為訓練集和驗證集,標注訓練集中的圖片,利用標注工具用矩形框框出圖片中的魚類,并輸入魚類種類名稱;傳輸標記后的圖片,所述標記后的圖片經過數據增強后傳入主干網絡。本方法利用yolov5的檢測方法即直接給出物體的類別概率和位置,識別速度更快,可以處理大批量魚類圖片,對于魚類研究和魚類生態保護時的工作效率提升有著較大的幫助,當經過訓練后,yolov5可以達到較高精度,屆時使用者只需要將含有魚的圖片輸入網絡即可輸出分類??梢圆渴鸬讲煌膿碛袛z像頭的電子設備上,來作為檢測工具。
技術領域
本發明涉及圖像識別領域,具體為一種基于yolov5的魚類檢測與識別方法。
背景技術
隨著人口數量的不斷增長,相關生產活動也在不斷擴張,人類和魚類的關系也越發密切,如捕食、垂釣、養殖、研究和保護等。然而,生活在不同魚塘、水域和海域的魚類,它們的數量和種類都十分繁多,對于普通人與漁業相關從業者來說,會難以區分部分魚的種類,可能導致非法捕撈或者誤食有毒魚類。對于生態保護和研究人員來說,辨別大量魚類需要具備專業知識和較多的人力,如果出現難以辨別的魚類還需要比對資料庫中的數據,降低了效率?,F在,需要高效的自動檢測方法來幫助和魚類有關的從業人員和民眾。
現有的檢測和識別方法主要是人工辨別,通過人眼接受信息、在腦中對比已知魚類以達到識別的目的。這種方法也存在缺陷,人員成本高,需要具有專業知識和經驗的人才能更好的分辨較多的魚類,會導致研究工作進度緩慢。容易出錯,不具有經驗以及專業知識的人難以識別魚類,往往容易出錯,在垂釣和捕撈時會遇到珍稀魚類或者有毒魚類并無法識別,從而導致沒有放生或沒有正確處理,最終帶來損失。人工檢測需要一條一條觀察,速度緩慢,效率降低。
發明內容
本發明目的在于提供一種基于yolov5的魚類檢測與識別方法,旨在提供檢測和識別不同種類的魚,通過該方法可以批量識別魚的種類,同時也提升了識別的準確性,避免人為識別過程中發生錯誤,提高相關產業的整體效率。
為達成上述目的,本發明提出如下技術方案:一種基于yolov5的魚類檢測與識別方法,包括:
獲取含有魚類的若干圖片,將獲取的若干圖片按預定比例分為訓練集和驗證集;
標注訓練集中的圖片,利用標注工具用矩形框框出圖片中的魚類,并輸入魚類種類名稱;
傳輸標記后的圖片,所述標記后的圖片經過數據增強后傳入主干網絡,并生成標記后的圖片的三個第一特征層,再將三個第一特征層分別輸入neck部分,產生三個第二特征層并輸入給輸出端,所述第二特征層用于顯示預測框,輸出端根據生成的三個第二特征層給出邊界框和置信度;
采用非極大值抑制方法,篩選掉重復的邊界框,得出預測框,將預測框與標注工具產生框進行對比,并采用GIoU損失函數計算損失,再利用損失函數做反向傳播,從而調整yolov5的權重,其中GIoU損失公式如下:
A:標注框矩形;
B:預測框矩形;
C:兩個框形成的圖像的最小外接矩形,即同時包含了預測框和真實框的最小框的面積;
重復上述過程使yolov5逐漸收斂,并通過驗證集的測試不斷調整參數,以使其具有泛化能力和精度提升。
進一步的,在本發明中,所述數據增強是通過添加、略微修改的現有數據副本或從現有數據中新建的合成數據來增加數據量。
進一步的,在本發明中,將所述標記后的圖片自適應縮放,以適合yolov5需要的大小。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京泓圖人工智能技術研究院有限公司,未經南京泓圖人工智能技術研究院有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011551413.0/2.html,轉載請聲明來源鉆瓜專利網。





