[發明專利]隨機試驗長度下離散多智能體系統迭代學習編隊控制方法在審
| 申請號: | 202011442840.5 | 申請日: | 2020-12-08 |
| 公開(公告)號: | CN112526886A | 公開(公告)日: | 2021-03-19 |
| 發明(設計)人: | 劉楊;凡益民;賈英民 | 申請(專利權)人: | 北京航空航天大學 |
| 主分類號: | G05B13/04 | 分類號: | G05B13/04;G05D1/02;G05D1/10 |
| 代理公司: | 北京航智知識產權代理事務所(普通合伙) 11668 | 代理人: | 黃川;史繼穎 |
| 地址: | 100191*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 隨機 試驗 長度 離散 智能 體系 統迭代 學習 編隊 控制 方法 | ||
1.一種隨機試驗長度下離散多智能體系統迭代學習編隊控制方法,其特征在于,包括步驟:
S1:將多智能體協調追蹤的狀態誤差問題轉化為追蹤誤差在一定時間段內穩定性控制問題;
S2:設計分布式P型迭代學習控制器;
S3:利用λ范數對步驟S2中設計的分布式P型迭代學習控制器在初始狀態精確重置和初始狀態隨機變換下的收斂性進行分析,并求解增益矩陣;
S4:對步驟S3的分析結果進行仿真驗證。
2.根據權利要求1所述的方法,其特征在于,步驟S1具體過程為:
定義一個由n個智能體組成的離散時間多智能體系統:
xk,j(t+1)=f(xk,j(t))+B(t)uk,j(t),k=0,1,2,…;j=1,…,n, (1)
其中,t=0,1,...,Td是離散時間,Td為期望時間長度,k是離散迭代次數;xk,j(t)∈Rm是第k次迭代時刻t的智能體j的狀態;是第k次迭代時刻t的控制輸入或方案;f(xk,j(t))∈Rm是一個未知的向量值非線性連續函數;B(t)是系統矩陣,
令Tk表示第k次迭代的實際迭代運行長度,僅考慮0到Tk的迭代過程,將式(1)變為:
其中,列向量xk(t)∈Rnm和由xk,j(t)和uk,j(t),j=1,...,n分別形成;F(xk(t))=[fT(xk,1(t))…fT(xk,n(t))]T。
3.根據權利要求2所述的方法,其特征在于,步驟S2具體過程為:
首先作出如下三個假設:
假設1:連續函數f(xk,l(t))在xk,l(t)中是全局Lipschitz,即滿足:
||f(xk+1,l(t))-f(xk,l(t))||≤kf||xk+1,l(t)-xk,l(t)||
其中,kf為Lipschitz常數,進而
||F(xk+1(t))-F(xk(t))||≤kf||xk+1(t)-xk(t)|| (3)
假設2:第k次迭代的初始狀態由xk(0)=x0,表示,其中x0是任意給定的點,即初始偏移對于每次迭代都是固定的;
假設3:第k次迭代的初始狀態由表示,其中ξ是一個正常數,即每次迭代的初始偏移都在給定區域中變化;
基于上述三個假設條件,單個智能體的狀態誤差當且僅當滿足下式(4)和(5)時,多智能體系統(1)在整個運動過程中實現了期望的編隊控制目標,
ej(t)=xj(t)-dj(t) (5)
其中,ej(t)是智能體j的狀態誤差,j=1,...,n,N={1,2,..,n};xj(t)為第j個智能體的狀態,dj(t)表示智能體j到公共虛擬領導者的期望相對狀態;令e(t)為n個智能體狀態誤差的緊湊矩陣形式,
定義新變量yj(t),將式(4)和(5)轉化為另一個降階系統(6)的漸近穩定性問題,
yj(t)=e1(t)-ej+1(t),j=1,…,n-1. (6)
將式(6)表示為然后得出
以及
其中
當且僅當y(t)=0時,式(4)成立,
假設在時間t有輸出的概率為p(t),如果0<t≤Tmin,則p(t)=1,Tmin是第k次迭代的實際迭代運行最小長度;如果Tmin+1≤t≤Td,則0<p(t)<1,并且p(Tmin)>p(Tmin+1)>…>p(Td),其中,p(Tmin)和p(Td)分別是在時間Tmin和Td有輸出的概率,
記第k次迭代時的實際迭代運行長度為Tk的事件為ATk,事件的發生概率則其中,p(Tk)是第k次迭代時的實際迭代運行長度為Tk的概率,P(At)是事件At發生的概率,
定義一個示性函數1(t≤Tk),使其遵守伯努利分布,以解決由每次迭代的迭代長度的隨機性引起的問題,對于給定時刻t≤Tmin,等式1(t≤Tk)=1代表迭代學習過程一直持續到時刻t,并且發生的概率p(t)=1;對于給定時刻t>Tmin,時間的集合{t≤Tk}包含{Tk=t},{Tk=t+1},…,{Tk=Td},所以Tmin<t≤Td,P(Aβ)是事件發生的概率,β的取值范圍是t到Td,因此,進一步得到,E{1(t≤Tk)}=1·p(t)+0·(1-p(t))=p(t),其中E{1(t≤Tk)}表示求期望,
定義新的狀態誤差為:
其中,是整個系統第k次迭代的狀態誤差,ek,j(t)(j=1,…,n)是第j個智能體在第k次迭代t時刻的狀態誤差;為第k次迭代的修正誤差;式(10)變為
在任何一次迭代學習過程中,信息交互圖都可能在多智能體運動期間切換,基于ILC理論將迭代學習協議設計為
其中,uk,l(t)是第l個智能體在第k次迭代的控制輸入;是增益矩陣;ak+1,lj(t)是多智能體間通信拓撲的邊上權重;是第j個智能體在第k次迭代中t+1時刻的修正誤差;是第l個智能體在第k次迭代時t+1時刻的修正誤差;Nk+1,l(t)是對應于第l個智能體在第k+1次迭代的離散時刻t的鄰居索引集,
將式(12)寫成緊湊形式:
其中,是增益矩陣,uk(t)是第k次迭代的控制輸入;σk+1(t)表示圖在第k+1次迭代的切換信號函數,表示圖的拉普拉斯矩陣,其在連續的切換時刻之間是恒定的。
4.根據權利要求3所述的方法,其特征在于,步驟S3具體過程為:
1)對固定迭代初始偏移情況,進行初始狀態精確重置下的收斂性分析,具體過程為:
定理1:將迭代學習協議(12)應用于多智能體系統(1),在該多智能體系統(1)中,迭代運行長度在每次迭代中隨機變化,并且所述假設1和假設2成立,如果增益矩陣滿足
則變量隨著k→∞收斂到零,從而漸近實現了編隊控制目標,其中yk,j(t)=ek,1(t)-ek,j+1(t),j=1,…,n-1;式(14)中,sup是指數學含義的上確界:無論t取何值,范數的大小都小于1;是信息交互圖的下標集,Li是第i個交互圖的拉普拉斯矩陣;
2)對有界迭代初始偏移情況,進行初始狀態隨機變換下的收斂性分析,具體過程為:
定理2:將迭代學習協議(12)應用于多智能體系統(1),在多智能體系統(1)中,迭代運行長度在每次迭代時隨機變化,并且所述假設1和假設3成立,如果增益矩陣滿足
則yk(t)收斂到原點的一個小鄰域,其中t=1,…,Td,即lim supk→∞E||yk(t)||≤vξ,其中v是一個常數。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京航空航天大學,未經北京航空航天大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011442840.5/1.html,轉載請聲明來源鉆瓜專利網。





