[發明專利]基于融合損失函數的行人重識別模型優化方法在審
| 申請號: | 201910308541.3 | 申請日: | 2019-04-17 |
| 公開(公告)號: | CN110059616A | 公開(公告)日: | 2019-07-26 |
| 發明(設計)人: | 江斌;任強;戴菲;桂冠;王偉 | 申請(專利權)人: | 南京郵電大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00 |
| 代理公司: | 南京蘇高專利商標事務所(普通合伙) 32204 | 代理人: | 柏尚春 |
| 地址: | 210000 江蘇*** | 國省代碼: | 江蘇;32 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 損失函數 模型優化 交叉熵 三元組 神經網絡訓練 圖像特征空間 空間相似度 迭代優化 對象構造 計算模型 特征識別 融合 相似度 治安管理 應用 優化 學習 | ||
本發明公開了一種基于融合損失函數的行人重識別模型優化方法,包括(1)利用神經網絡訓練得到行人重識別模型后,利用交叉熵損失函數計算模型中每個行人圖像特征空間相似度;(2)根據空間相似度設置損失閾值,并利用閾值構造三元組對象;(3)利用三元組對象構造三重損失函數迭代優化,得到優化后的行人重識別模型。本發明結合交叉熵損失函數和三重損失函數,將深度學習和特征識別應用在行人重識別問題上面,對提高治安管理具有重要的意義。
技術領域
本發明涉及一種行人重識別方法,尤其涉及一種基于融合損失的行人重識別優化計算方法。
背景技術
隨著人工智能技術的迅猛發展和視頻監控設備的日益普及,智能監控以其準確、及時和功能豐富而受到社會各界的廣泛關注。目前行人重識別問題在機器視覺領域得到的廣泛的關注,近幾年來已經有很多的相關算法在該問題上得到了很好的實現,并且在識別精確度方面都獲得了優秀的結果。隨著未來安防系統性價比的不斷提高和數字高清化、智能化等技術的發展,市場應用空間將不斷增長。
我們可以將行人重識別問題看作是一種圖片的單分類問題,即在眾多圖片數據中既快又好的找到搜索目標。近幾年,主流的行人重識別算法大都是基于卷積神經網絡的架構。這些算法由多層的卷積運算獲得良好的行人特征來進行識別。但是我們在實踐的過程中發現,行人圖片的獲取是源源不斷的,一旦圖片數據量過于龐大,例如Mars數據集,就需要更深的網絡架構來提取特征,但這樣往往會出現梯度反向傳播到前面的層,重復相乘使梯度無窮小,甚至是消失,導致訓練集準確率下降。其次,現有的行人重識別模型只對行人進行有限個主要特征的訓練提取,而對于更多細節特征點的提取還遠遠不足以滿足現實行人圖像識別精度的要求。再次,在實際訓練過程中發現,如果僅僅使用交叉熵損失函數對現有的行人重識別模型進行優化,由于數據集數量比較龐大,相似的行人圖片較多,單一地比較輸出和期望的差距,雖然計算速度上比較快,但是在準確度上會有所欠缺。而且還會導致冗余參數多訓練時間久,在諸如集群檢索等問題時計算的開銷就非常高,希望找到多個目標人物時,識別效果并不是很好,因為每次匹配都必須通過與每個圖片庫圖像配對的網絡,并不適合物聯網端到端的識別。
發明內容
發明目的:針對以上問題,本發明提出一種基于融合損失函數的行人重識別模型優化方法,能夠提升行人重識別的識別率并加快運行速率。
技術方案:本發明所采用的技術方案是一種基于融合損失函數的行人重識別模型優化方法,包括以下步驟:
(1)利用神經網絡訓練得到行人重識別模型后,利用交叉熵損失函數計算模型中每個行人圖像特征空間的損失;
(2)根據步驟1中計算得到的特征空間的損失值分布來設置損失閾值,并利用所設置的閾值構造三元組對象;
(3)利用三元組對象構造三重損失函數迭代優化,得到優化后的行人重識別模型。
其中,步驟(1)中所述的交叉熵損失函數為:
其中,p(x)、q(x)分別表示樣本真實分布和預測分布,x表示隨機樣本。
進一步的,步驟(2)中所述的利用閾值構造三元組對象,包括以下過程:
(21)選取特征空間差距小于閾值下限和大于閾值上限的行人樣本;
(22)從上一步的行人樣本中抽取若干個樣本,樣本個數記為B,樣本分別經過嵌入層(embedding)計算,得到B3個損失值;
(23)將損失值小于閾值下限的樣本標記為正樣本圖片(positive),將損失值大于閾值上限的樣本標記為負樣本圖片(negative),從訓練數據集中隨機選擇一個樣本標記為錨樣本圖片(anchor),正樣本、負樣本和錨樣本圖片構成三元組對象。
進一步的,步驟(3)包括以下過程:
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于南京郵電大學,未經南京郵電大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910308541.3/2.html,轉載請聲明來源鉆瓜專利網。





