[發明專利]輪式移動機器人視覺伺服軌跡跟蹤并發深度辨識在審
| 申請號: | 201711171646.6 | 申請日: | 2017-11-20 |
| 公開(公告)號: | CN109816687A | 公開(公告)日: | 2019-05-28 |
| 發明(設計)人: | 李寶全;邱雨;師五喜;徐壯 | 申請(專利權)人: | 天津工業大學 |
| 主分類號: | G06T7/246 | 分類號: | G06T7/246;G06T7/579;G05D1/02 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 300387 *** | 國省代碼: | 天津;12 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 辨識 輪式移動機器人 特征點 并發 自適應更新 單應矩陣 軌跡跟蹤 深度信息 視覺伺服 圖像視頻 場景深度信息 軌跡跟蹤誤差 靜態參考圖像 系統數據恢復 定理證明 關系建立 期望軌跡 深度參數 實時圖像 視覺跟蹤 伺服軌跡 學習算法 預先錄制 運動控制 運動約束 非完整 有效地 跟蹤 收斂 錄制 場景 分解 | ||
1.一種輪式移動機器人同時視覺軌跡跟蹤并發自適應深度辨識方法,其特征在于包括以下步驟:
第1,定義系統坐標系,包括:
第1.1,建立系統模型
定義輪式移動機器人的坐標系如下:以表示攝像機相對于靜止特征點的參考坐標系,以表示輪式移動機器人當前位姿坐標系,以表示對應于輪式移動機器人期望位姿的直角坐標系,由共面特征點Pi確定的平面為參考平面π,定義平面π的單位法向量為n*,3-D歐氏坐標Pi在下分別用來表示:
假設各個坐標系的原點到特征點沿光軸方向的距離恒為正,從到的旋轉矩陣為從到的平移向量為其中cT*(t)為在中表示。同樣表示期望從到的時變期望旋轉矩陣,從到的期望平移向量為其中dT*(t)在中表示,cT*(t)和dT*(t)的定義如下:
cT*(t)=[cT*x,0,cT*z]T,dT*(t)=[dT*x,0,dT*z]T. (2)
種定義如下:
定義如下:
另外表示從到的旋轉矩陣的右手旋轉角度,θd表示到的旋轉矩陣的右手旋轉角度,可以看出:
其中代表WMR的期望角速度在中的表示,從到π的沿π的單位法向量的距離設為則
d*=n*TPi* (6)
其中表示π的單位法向量。
第1.2,歐式重建
首先重建特征點和的歸一化歐式坐標Pi在和下的表示:
為了得到歐氏坐標,每個特征點由下的下的下的示的投影像素坐標,他們是(即實際時變圖像點),(即期望軌跡圖像點),(即恒定參考圖像點)的元素,特征點的歸一化歐氏坐標通過針孔鏡頭模型與圖像點建立如下關系:
其中是已知不變的攝像機內參數標定矩陣,坐標系之間的旋轉矩陣和平移向量可由歸一化歐氏坐標表示如下:
其中H(t),表示歐氏單應矩陣,為含有比例因子的平移向量:
然后通過歐幾里得重建技術分解H和Hd,得到
第3,構建自適應控制器
根據系統的開環動態方程,為配有攝像機的移動機器人系統設計控制器和自適應更新律,控制的目的是確保坐標系跟蹤上的時變軌跡,用e(t)=[e1,e2,e3]T表示平移和旋轉跟蹤誤差,具體定義如下:
其中cT*h1(t),cT*h2(t),dT*h1(t)和dT*h2在(10)中定義,θ(t),θd(t)在(4)中定義。另外輔助變量定義如下:
開環誤差方程為:
深度估計誤差定義如下:
是深度辨識,當趨向于零時未知的深度信息將會有效的識別出來,輪式移動機器人設計的線速度和角速度如下所示:
根據并發學習方法,為深度辨識設計自適應更新律,其形式如下:
其中為更新增益,為正常數,tk∈[0,t]是初始時間和當前時間之間的時間點。投影函數Proj(χ)定義為:
其中是正值的下界,因而有可以得到下式:
根據之前的推導,閉環誤差系統如下:
當下式成立:
至此,完成了移動機器人同時視覺伺服軌跡跟蹤與并發自適應深度辨識。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于天津工業大學,未經天津工業大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201711171646.6/1.html,轉載請聲明來源鉆瓜專利網。





