[發明專利]一種能應對復雜背景并且更精確的三維姿態估計算法在審
| 申請號: | 202211077522.2 | 申請日: | 2022-09-05 |
| 公開(公告)號: | CN115482448A | 公開(公告)日: | 2022-12-16 |
| 發明(設計)人: | 杜宇;劉冬;張犇;李金鐘;田小靜;叢明 | 申請(專利權)人: | 大連交通大學;大連理工大學 |
| 主分類號: | G06V10/82 | 分類號: | G06V10/82;G06V10/774;G06V20/64 |
| 代理公司: | 遼寧鴻文知識產權代理有限公司 21102 | 代理人: | 許明章;王海波 |
| 地址: | 116028 遼寧*** | 國省代碼: | 遼寧;21 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 應對 復雜 背景 并且 精確 三維 姿態 估計 算法 | ||
本發明屬于機器視覺領域,涉及一種物體檢測與姿態估計方法。本方法基于YOLO?6D算法進行調整,將原算法中的YOLO V2檢測網絡變更為YOLO V3網絡,同時增添注意力機制以增強模型對背景復雜且存在遮擋的物體的檢測能力。并且調整了位姿估計方法,選擇cell群進行基于RANSAC的EPnP姿態估計來提高估計精度。該算法很好地克服了傳統姿態估計算法抗背景干擾能力弱、被遮擋目標識別精度差的問題,并且該算法運行速度較快,具備實時處理能力,綜合性能超越其他基于CNN的算法。
技術領域
本發明屬于機器視覺領域,涉及一種物體檢測與姿態估計方法。
背景技術
在自動駕駛及機器人操作領域需要對目標進行判斷與定位,并對目標在三維空間的旋轉角度進行判斷。傳統的二維圖像識別無法獲取對應信息,6D姿態估計可以較好的解決此類問題。這些場景對姿態識別的速度和精度提出了相當高的要求,與此同時,在實際應用中存在著多種干擾條件,例如光照強度低、目標物體背景復雜、目標被遮擋等,這些都給姿態識別帶來了難度。
基于點對特征的姿態估計方法在處理輕微形變及遮擋具有高魯棒性、抗干擾能力強的特點,但在面對缺乏紋理的姿態估計場景,其無法很好的對目標姿態進行提取,具有很高的參數空間維度、空間復雜度及時間復雜度。基于點云的方法可以保留原始幾何信息并且不需要進行離散化處理,但會浪費大量的計算資源。
對于6D姿態估計,現有的方法需要耗費較長的檢測時間以及較多的計算資源。
發明內容
針對現有技術存在的問題,本發明提出了一種物體檢測與姿態估計方法。本方法將原YOLO-6D算法中的YOLOV2檢測網絡變更為YOLOV3網絡,同時增添注意力機制以增強模型對背景復雜且存在遮擋的物體的檢測能力。并且調整了位姿估計方法,選擇cell群進行基于RANSAC的EPnP姿態估計來提高估計精度。
為了達到上述目的,本發明采用的技術方案為:
一種物體檢測與姿態估計方法,能夠應對復雜背景且更精確,包括以下步驟:
(1)采集包含檢測目標的若干張圖像;
(2)依據LineMod數據集格式制作訓練用數據集;
(3)對YOLO-6D算法進行改進,提升其檢測網絡的性能;改進具體包括以下兩部分:
將原YOLO-6D算法中的YOLOV2檢測網絡變更為YOLOV3網絡,并融入注意力模塊作為檢測網絡。網絡的輸入為單張RGB圖像,將圖像均勻劃分為S×S個規則的cell,經檢測網絡后每個cell可輸出一個多維向量,存放著8個3D包絡框角點及物體中線點坐標信息,目標物體的分類概率及整體置信度。網絡的組成如圖1所示,其包含三個預測特征層Box1、Box2和Box3,并在特征層Box1中融入注意力機制,使其可以在空間上融合更多的特征。本申請選用SENet網絡作為融入的注意力機制,SENet網絡通過學習特征權重獲取每個特征圖的重要程度,加大有效特征圖權重并降低無效特征圖權重,使模型變得更優。經過SENet網絡后的圖像會分成兩支,其中一支經卷積到13×13的第一個預測特征層,使用1×1的卷積核預測器進行預測,另外一支會通往另一個卷積層,再經上采樣,高和寬會變成原來的兩倍即26×26,并與網絡中Box2內的殘差網絡輸出進行融合。與此同時,拼接之后的矩陣也經特征提取器處理,分為兩個分支,其中一支通向第二個預測特征層,另一支通往1×1卷積層,進行上采樣,高寬均變為52,再與Box3內殘差網絡的輸出融合。融合的結果通過特征提取器,再經卷積得到第三個預測特征層。此操作目的是對目標物體的局部特征進行提取,因為其具有三個不同尺度的預測特征層,可以有效加強對被遮擋物體的預測能力。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于大連交通大學;大連理工大學,未經大連交通大學;大連理工大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202211077522.2/2.html,轉載請聲明來源鉆瓜專利網。





