[發明專利]一種基于ELM-LRF的自適應視覺導航方法有效
| 申請號: | 201710337967.2 | 申請日: | 2017-05-15 |
| 公開(公告)號: | CN107179077B | 公開(公告)日: | 2020-06-09 |
| 發明(設計)人: | 王磊;趙行;李嬋穎 | 申請(專利權)人: | 北京航空航天大學 |
| 主分類號: | G01C21/20 | 分類號: | G01C21/20;G06N3/08 |
| 代理公司: | 北京科迪生專利代理有限責任公司 11251 | 代理人: | 楊學明;顧煒 |
| 地址: | 100191*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 elm lrf 自適應 視覺 導航 方法 | ||
1.一種基于ELM-LRF的自適應視覺導航方法,其特征在于:步驟如下:
(1)分配存儲(st,at,rt,st+1,Qt)的空間;(st,at,rt,st+1,Qt)是結構體存儲,st是當前狀態,在這里為拍攝到的照片,at是在st下的動作,rt是at的即時回報,st+1是at后的狀態,Qt值為在狀態st下執行at后得到的總的長遠回報;
(2)機器人在環境中運動,得到一組從初始位置到發現目標物的(st,at,rt,st+1,Qt)數據;
(3)機器人重置到初始位置,當在某狀態st′下得到的Qt′比之前同狀態st得到的Qt大時,刪除在st狀態下得到的(st,at,rt,st+1,Qt)數據,否則刪除在st′下得到的(st′,at′,rt′,st+1′,Qt′);重復多次,從而得到較好的當前狀態和最優動作的數據,即得到為訓練ELM-LRF所提供的更好的樣本數據;
(4)在步驟(3)的基礎上,以st作為輸入,at作為輸出完成對基于局部接收野的極限學習機神經網絡的訓練,即ELM-LRF的訓練,建立起當前狀態和最優動作的映射關系;
(5)根據步驟(4)的建立起當前狀態和最優動作的映射關系,測試機器人導航能力,觀察機器人是否能找到目標。
2.根據權利要求1所述的基于ELM-LRF的自適應視覺導航方法,其特征在于:所述步驟(4)的具體實現過程如下:
(2.1)計算隱層輸出矩陣H
給定的訓練集(xi,ti),i=1…L,xi為步驟(3)得到的st,ti為步驟(3)得到的at,
h1(x)=G(ai,bi,x),ai∈Rd,bi∈R,i=1…L
其中,G(ai,bi,x)是一個非線性分段連續函數,實際上是將d維的輸入空間映射到L維的隱層隨機空間,是一個隨機特征映射;ai,bi是第i個隱藏節點的參數,非線性分段連續函數的參數,R代表實數;
(2.2)根據步驟(2.1)中的H,求隱藏層至輸出的權重β,
ELM-LRF的輸出函數即映射關系,其中:
βL×m=[β1 … βL]T
通過求解來求β,
其中σ1>0,σ2>0,p,q>0,C用于控制兩項的重要性,T是訓練樣例的目標矩陣:
當σ1=σ2=p=q=2時,常用的閉式解為:
p,q是范數下標,N是矩陣T的行數,L是矩陣β的行數。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京航空航天大學,未經北京航空航天大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710337967.2/1.html,轉載請聲明來源鉆瓜專利網。





