[發明專利]基于無監督匹配追蹤編碼的仿腦架構圖像識別方法有效
| 申請號: | 202010083016.9 | 申請日: | 2020-02-07 |
| 公開(公告)號: | CN111310816B | 公開(公告)日: | 2023-04-07 |
| 發明(設計)人: | 于強;宋世明 | 申請(專利權)人: | 天津大學 |
| 主分類號: | G06V10/764 | 分類號: | G06V10/764;G06V10/82;G06N3/049;G06N3/0455;G06N3/0464;G06N3/08 |
| 代理公司: | 天津市北洋有限責任專利代理事務所 12201 | 代理人: | 程小艷 |
| 地址: | 300072*** | 國省代碼: | 天津;12 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 監督 匹配 追蹤 編碼 架構 圖像 識別 方法 | ||
本發明公開基于無監督匹配追蹤編碼的仿腦架構圖像識別方法。將之與高效的多脈沖學習算法TDP相結合,提出了一種新的基于無監督匹配追蹤編碼的仿腦架構進行圖像識別任務。主要步驟為:對輸入數據進行預處理;無監督匹配追蹤時序編碼;多脈沖學習。大幅度提升了時序SNN在圖像識別任務上面的識別準確率和魯棒性,更加接近人腦處理外界信息的方式,為圖像識別技術提供了新的技術思路。
技術領域
本發明屬于類腦計算、圖像識別領域,尤其是有關提高基于時序編碼的脈沖神經網絡模型在圖像識別上表現的技術,具體涉及一種基于無監督匹配追蹤編碼的仿腦架構圖像識別方法。
背景技術
模式識別是人腦杰出認知能力的體現之一。例如,人類可以在很短的時間內區分不同的物體。科學實驗表明神經元使用脈沖在大腦中傳遞和處理信息。因此,脈沖在高效的信息處理中起著至關重要的作用。受“脈沖”形式的啟發,第三代神經網絡,即脈沖神經網絡(SNN),被開發來探索大腦中基于脈沖的信息處理過程。
然而,如何設計一個具有生物合理性并且高效可行的脈沖神經網絡框架進行圖像識別仍是一個艱難的任務。就采用的編碼方案而言,之前的工作可以分為兩大類:基于速率編碼的和基于時序編碼的SNN。速率編碼使用發射頻率來表示不同的信息。較高的發射速率會導致編碼窗口內出現更多數量的脈沖?;谒俾示幋a,近年來研究者開發了多種用于圖像分類的SNN,并取得了良好的性能。然而,它們中的大多數都使用了復雜的網絡結構和高密度的脈沖,這使得他們的計算形式與非脈沖神經網絡相似。因此,它們的計算效率仍是一個亟需解決的問題。另一方面,時序編碼使用精確的脈沖發射時間來傳遞信息。由于使用了時序結構,時序編碼具有更高的信息表示能力和更好的計算效率。但是,如何設計一個有效的基于時序編碼的SNN仍然是一個難題。在之前的研究中,研究者已經開發了幾種不同的基于時序編碼的SNN來進行圖像識別,例如Restricted?Boltzmann?Machine,S1C1-SNN和CSNN。盡管這些方法可以將信息編碼成稀疏的時序脈沖時空圖,并且具有輕量的網絡結構,但它們在準確性方面的表現相對較差。
發明內容
本發明首先提出了一種更加高效且具有生物可信度的無監督匹配追蹤的時序編碼方法,之后將之與高效的多脈沖學習算法TDP相結合,提出了一種新的基于無監督匹配追蹤編碼的仿腦架構進行圖像識別任務。我們的方法大幅度提升了時序SNN在圖像識別任務上面的識別準確率和魯棒性,更加接近人腦處理外界信息的方式,為圖像識別技術提供了新的技術思路。
本發明提出了一種基于無監督匹配追蹤編碼的仿腦架構圖像識別方法。整個系統主要包括以下三個部分:數據預處理、時序編碼和多脈沖學習。具體的技術方案如下:
步驟一,對輸入數據進行預處理:
將圖像轉換成灰度圖像,然后對圖像進行歸一化處理。
步驟二,對圖像進行時序編碼:
首先,計算編碼神經元的激活值:
其中:是輸入圖像I在位置的像素值;φi和Ri分別表示神經元的權重向量和感受野。
然后,選擇具有最強激活水平的神經元發射脈沖,同時發送側向抑制到其他的神經元。
反復進行這個選擇和抑制的過程,直到沒有神經元的激活值達到脈沖發射閾值為止。這等同于從圖像中刪除最佳匹配單元,然后讓得到的殘差繼續進行下一步的迭代。
以t=0時刻為例,首先我們將初始時刻的圖像I0和神經元激活值設置成I和Ai。之后選擇有最大激活水平的神經元發射脈沖。
i0表示發射神經元的索引值,該神經元對應的激活值表示為側向抑制通過在I0中減去該神經元的特征實現,公式表示如下:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于天津大學,未經天津大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010083016.9/2.html,轉載請聲明來源鉆瓜專利網。





