[發明專利]基于粒子群優化BP神經網絡的步態識別方法有效
| 申請號: | 201910562766.1 | 申請日: | 2019-06-26 |
| 公開(公告)號: | CN110232372B | 公開(公告)日: | 2021-09-24 |
| 發明(設計)人: | 鄒倩穎;劉俸宇;王小芳 | 申請(專利權)人: | 電子科技大學成都學院 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06N3/00;G06N3/04 |
| 代理公司: | 成都時譽知識產權代理事務所(普通合伙) 51250 | 代理人: | 李正 |
| 地址: | 610000 四川省成*** | 國省代碼: | 四川;51 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 粒子 優化 bp 神經網絡 步態 識別 方法 | ||
本發明公開了一種基于粒子群優化BP神經網絡的步態識別方法,該方法在建立BP神經網絡模型后,采用粒子群算法優化BP神經網絡模型的連接權值和閾值,使BP神經網絡模型全局誤差達到預設精度;然后,將行走目標的特征值矩陣輸入至優化后的BP神經網絡模型中進行訓練,訓練成功后,得到粒子群優化BP神經網絡模型;最后,將待識別行走目標的特征值矩陣輸入至粒子群優化BP神經網絡模型中進行步態識別,輸出相應的步態識別結果。因此,本發明通過粒子群算法對BP神經網絡進行優化,不僅能夠提高BP神經網絡的收斂速度,還能夠避免陷入局部最優的情況發生。
技術領域
本發明涉及步態識別技術領域,尤其涉及一種基于粒子群優化BP神經網絡的步態識別方法。
背景技術
步態識別是生物特征識別技術中的新興領域之一。它旨在根據人們的走路姿勢實現對個人身份的識別或生理、病理及心理特征的檢測,具有廣闊的應用前景。步態是一種復雜的行為特征,是人的生理、心理及對外界反應的一個綜合體現。由于個體之間存在差異,步態也不盡相同,這些差異是整個肌肉和骨架(身體重量、肢體長度、骨路結構等)的函數,且完全決定于幾百個運動學參數。早期的醫學研究表明:人的步態中有24種不同的成分,如果把這些成分都考慮到,則步態是為個體所特有的,這使得利用步態進行身份識別成為可能。相對于其他生物認證技術,步態識別具有非侵犯性、遠距離識別、簡化細節、難以偽裝等獨特優勢。
目前,常見的步態識別方法有最近鄰NN(Nearest-Neighbor)分類、人工神經網絡ANN(Artificial Neural Networks)、隱馬爾可夫模型HMM(Hidden Markov Model)等。其中,采用傳統的BP神經網絡在進行訓練時易出現局部最小值、收斂速度過慢、分類效果不理想的問題,且不能夠保證收斂到全局最優點,提取的步態輪廓圖噪聲也較大。因此,需要對傳統的BP神經網絡進行優化改進,以提高BP神經網絡在步態識別應用中的性能。
發明內容
鑒于以上所述現有技術的缺點,本發明的目的在于:提供一種基于粒子群優化BP神經網絡的步態識別方法,通過粒子群算法對BP神經網絡進行優化,不僅能夠提高BP神經網絡的收斂速度,還能夠避免陷入局部最優的情況發生。
為實現上述發明目的,本發明提供以下技術方案:
一種基于粒子群優化BP神經網絡的步態識別方法,其包括以下步驟:
S1:建立BP神經網絡模型;
S2:采用粒子群算法優化所述BP神經網絡模型的連接權值和閾值,使所述BP神經網絡模型的全局誤差達到預設精度;
S3:將行走目標的特征值矩陣輸入至優化后的所述BP神經網絡模型中進行訓練,訓練成功后,得到粒子群優化BP神經網絡模型;
S4:將待識別行走目標的特征值矩陣輸入至所述粒子群優化BP神經網絡模型中進行步態識別,輸出相應的步態識別結果。
根據一種具體的實施方式,本發明基于粒子群優化BP神經網絡的步態識別方法的步驟S2中,采用粒子群算法對所述BP神經網絡模型的正向傳播進行優化,其包括以下步驟:
S201:對輸入層的神經元進行?;幚?,得到相應的粒子群,并隨機初始化所述粒子群;
S202:將所述隱含層的輸出函數作為適應度函數,計算出每個粒子的適應度值,并選取最優的適應度值作為群體歷史最優值;
S203:利用每個粒子的歷史最優值進行迭代更新,更新每個粒子的歷史最優位置和速度;
S204:若計算出滿足條件的適應度值或者迭代次數達到最大迭代數,則停止迭代,并將隱含層的最優輸出結果輸入至輸出層,否則進入步驟S202繼續迭代;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于電子科技大學成都學院,未經電子科技大學成都學院許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910562766.1/2.html,轉載請聲明來源鉆瓜專利網。





