[發明專利]一種遙操縱機器人基于視覺的動覺示教控制方法無效
| 申請號: | 201310011735.X | 申請日: | 2013-01-12 |
| 公開(公告)號: | CN103105851A | 公開(公告)日: | 2013-05-15 |
| 發明(設計)人: | 倪濤;張紅彥;李驍鵬 | 申請(專利權)人: | 吉林大學 |
| 主分類號: | G05D1/00 | 分類號: | G05D1/00 |
| 代理公司: | 長春吉大專利代理有限責任公司 22201 | 代理人: | 朱世林;王壽珍 |
| 地址: | 130012 吉*** | 國省代碼: | 吉林;22 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 操縱 機器人 基于 視覺 動覺 控制 方法 | ||
技術領域
本發明屬于機器人人機交互領域,特別涉及一種遙操縱機器人基于視覺的動覺示教控制方法。
背景技術
隨著人類對海底、地下資源和宇宙空間的合理開發和利用,機器人對于高溫、高壓、強輻射等極限環境下作業任務的完成發揮了愈來愈重要的作用。機器人正朝著智能化的方向發展。然而,由于受控制、傳感及人工智能等發展水平的制約,要研制出在變化環境下的全自主機器人是短期內難以達到的目標。機器人遙操縱技術將人的智慧參與到機器人的實時控制中,極大提高了復雜環境下機器人作業的適應性。因此,機器人的局部自主融入操作者的高級決策能力是目前遙操縱領域的發展趨勢。
在主從機器人的控制過程中,操作者由于與機器人相距較遠而無法親身感知作業現場的真實環境,只能依據現場反饋的圖像、聲音、力/觸覺等信息來完成作業任務。主從機器人控制領域仍有許多問題有待解決:首先,機器人作業任務完成的成功與否以及效率高低,過多的依賴于操作人員的技能水平和熟練程度;其次,現場反饋的視頻圖像信息在遠距離傳輸中不可避免的存在較大時滯,而傳統的“移動-等待”策略無疑大大降低了機器人的作業效率;同時,操作者由于無法直接感知圖像中的景深信息,也就難以精確把握機器人與作業對象的距離遠近,勢必導致機器人操控效率低下。
再者,現有的主從機器人雙向伺服控制策略幾乎無一例外地強調“作業反力”的“再現與感知”,力反饋效果產生的前提是機器人已經與作業環境接觸。這在某些諸如高速、重載等應用場合,機器人對作業環境的瞬間沖擊,很可能在操作人員感知現場作業反力之前便已造成無法彌補的損失。
發明內容
本發明的目的在于克服現有技術的缺點與不足,提出一種全新的遙操縱機器人基于視覺的動覺示教控制方法。為達上述目的,本發明采用如下的技術方案:
一種遙操縱機器人基于視覺的動覺示教控制方法,其特征在于,包括以下步驟:
S1、采用立體視覺技術對現場的作業對象及背景環境(障礙物)進行識別與空間信息提取;
S2、以步驟S1中獲取的作業對象與機器人末端間的位姿關系為參數,構建作業對象對機器人的虛擬吸引力;
S3、以步驟S1中獲取的機器人末端沿其速度方向與背景環境(障礙物)的距離為參數,構建機器人所受的障礙物排斥力;
S4、將作業對象虛擬吸引力、障礙物虛擬斥力以及機器人抓取物體時的真實作用力合成機器人示教力;
S5、通過主端系統與從端系統間的雅可比矩陣,將示教力向操作手柄反饋,從而實現對操作者的動覺示教。
根據權利要求1所述的遙操縱機器人基于視覺的動覺示教控制方法,其特征在于,所述步驟S1包括:包括以下步驟:
S11.1、將Bumblebee雙目攝像頭采用eye-to-hand方式固定在現場環境正上方,光軸與地面垂直,簡稱為環境相機;
S11.2、根據環境相機圖像中各像素點的顏色、灰度或紋理特征,從中剔除機器人區域及作業對象區域,以獲得背景圖像;
S11.3、根據圖像匹配及攝像機標定的結果,實時計算背景圖像中各像素點的空間坐標;
S11.4、采用基于空間自相關性的內插方式來預測估計所剔除的機器人區域及作業對象區域應有像素屬性,并結合背景圖像像素特征,生成背景環境的高程數據模型;
S12.1、將Kinect相機采用eye-in-hand方式固連于機器人末端,簡稱為手部相機;
S12.2、根據手部相機圖像中各像素點的顏色、紋理特征,采用結合人口統計與區域增長的圖像分割方法來提取作業對象區域,并采用分裂-合并算法提取該區域輪廓的近似多邊形,取多邊形的頂點為作業對象圖像特征;
S12.3、根據圖像匹配及攝像機標定的結果,實時計算作業對象區域各像素點的空間坐標,并構建其OBB(Oriented?Bounding?Box-有向包圍盒)包圍盒模型。
上述的遙操縱機器人基于視覺的動覺示教控制方法,所述步驟S2包括:設機器人處于由作業對象和障礙物構成的虛擬勢場V中,根據Khatib的人工勢場法原理,沿著勢場負梯度方向的虛擬力可保證機器人的運動收斂于系統的低勢能點,由此構建作業對象引力FG為:
FG=-(γ0-γ)。
其中γ0為機器人末端的當前位姿向量,γ為機器人末端的期望位姿向量。
上述的遙操縱機器人基于視覺的動覺示教控制方法,所述步驟S3包括:基于與步驟S2同樣的理論,構建障礙物虛擬斥力FO為:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于吉林大學,未經吉林大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201310011735.X/2.html,轉載請聲明來源鉆瓜專利網。





