[發明專利]基于“預測-恢復-識別”的低分辨率行人重識別方法及系統有效
| 申請號: | 202010843411.2 | 申請日: | 2020-08-20 |
| 公開(公告)號: | CN111967408B | 公開(公告)日: | 2022-06-21 |
| 發明(設計)人: | 王亮;黃巖;韓苛;單彩峰;紀文峰 | 申請(專利權)人: | 中科人工智能創新技術研究院(青島)有限公司 |
| 主分類號: | G06V40/10 | 分類號: | G06V40/10;G06V10/74;G06V10/764;G06V10/82;G06T3/40;G06N3/04;G06N3/08 |
| 代理公司: | 濟南圣達知識產權代理有限公司 37221 | 代理人: | 董雪 |
| 地址: | 266300 山東省青島市膠州市*** | 國省代碼: | 山東;37 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 預測 恢復 識別 分辨率 行人 方法 系統 | ||
1.基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,包括:
將獲取到的待識別的低分辨率圖片,輸入到訓練好的深度神經網絡模型,進行最優尺度下的細節恢復,得到超分辨率圖片;
計算所述超分辨率圖片特征與高分辨率的搜索庫圖片特征間的歐氏距離,根據所述歐氏距離的大小進行身份匹配的排序;所述深度神經網絡模型包括:
預測器,用于預測所述低分辨率圖片每一個預設尺度分別是最優尺度的概率;具體的,預測器提取低分辨率圖片的特征,輸出低分辨率圖片分別屬于N個類別{r1,r2,...,rN}的概率所述表示低分辨率圖片的最優尺度因子{r1,r2,...,rN}的概率,通過尺度因子度量實現對每個尺度因子是最優尺度概率的度量,公式為:
其中,預設N個可選擇的尺度因子{r1,r2,...,rN},表示尺度因子ri是低分辨率圖片xl的最優尺度真值的概率,di表示所述低分辨率圖片對應的每張超分辨率圖片特征與高分辨率的搜索庫圖片特征之間的歐氏距離,γ是調控因子;
超分辨率模塊,用于遍歷所述低分辨率圖片的N個尺度因子,分別生成對應的N張超分辨率圖片;
重識別模塊,用于提取圖片特征,并計算所述低分辨率圖片對應的每張超分辨率圖片特征與高分辨率的搜索庫圖片特征之間的歐氏距離,以衡量兩者之間的相似度。
2.如權利要求1所述的基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,對于深度神經網絡模型的訓練過程包括:
對構建的訓練數據集中的圖片進行分組,每一組訓練數據包括一張低分辨率圖片,一張身份標簽相同但相機標簽不同的高分辨率圖片,一張由所述高分辨率圖片下采樣的合成低分辨率圖片;
對于每一組訓練數據集,通過深度神經網絡模型預測低分辨率圖片每一個預設尺度分別是最優尺度的概率,遍歷低分辨率圖片的N個尺度因子,分別生成對應的N張超分辨率圖片;隨機挑選合成低分辨率圖片的一個尺度因子,生成1張超分辨率圖片;
計算上述每一張超分辨率圖片特征與高分辨率圖片特征之間的歐氏距離,計算結果作為動態軟標簽,表示每一個尺度因子是最優尺度的評估概率;
構建不同的損失函數,通過最小化不同損失函數的加權和來訓練和優化網絡參數。
3.如權利要求2所述的基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,所述損失函數包括:分辨率損失函數、身份交叉熵損失函數、身份三元損失函數和預測損失函數;其中,把動態軟標簽作為預測概率的真值監督信號,構成預測損失函數。
4.如權利要求2所述的基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,使用每批訓練數據訓練時,為輸入的低分辨率圖片和合成低分辨率圖片從N個尺度因子中隨機挑選一個,進行相應尺度的圖片恢復;去掉預測器和預測損失函數,以超分辨率損失函數、身份交叉熵損失函數和身份三元損失函數的加權和為總損失,通過最小化總損失來預訓練超分辨率模塊和重識別模塊。
5.如權利要求2所述的基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,將測試的低分辨率圖片輸入預測器,把具有最高預期概率的尺度因子作為最優尺度,然后按該尺度恢復超分辨率圖片,再送入重識別模塊;測試的高分辨率圖片直接輸入到重識別模塊;
在特征空間中,計算超分辨率圖片特征和高分辨率圖片特征間的歐氏距離,以衡量它們的相似度。
6.如權利要求5所述的基于“預測-恢復-識別”的低分辨率行人重識別方法,其特征在于,相似度越高的高分辨率的搜索庫圖片,在身份匹配結果中的位置越靠前。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于中科人工智能創新技術研究院(青島)有限公司,未經中科人工智能創新技術研究院(青島)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010843411.2/1.html,轉載請聲明來源鉆瓜專利網。





