[發明專利]地點識別及其模型訓練的方法和裝置以及電子設備有效
| 申請號: | 201910390693.2 | 申請日: | 2019-05-10 |
| 公開(公告)號: | CN110209859B | 公開(公告)日: | 2022-12-27 |
| 發明(設計)人: | 白棟棟;凌永根;劉威 | 申請(專利權)人: | 騰訊科技(深圳)有限公司 |
| 主分類號: | G06F16/58 | 分類號: | G06F16/58;G06F16/587;G06F16/583;G06N3/04 |
| 代理公司: | 深圳市聯鼎知識產權代理有限公司 44232 | 代理人: | 劉抗美 |
| 地址: | 518000 廣東省深圳*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 地點 識別 及其 模型 訓練 方法 裝置 以及 電子設備 | ||
1.一種用于地點識別的模型訓練方法,其特征在于,所述方法包括:
基于卷積神經網絡CNN模型的第一部分提取樣本圖像的局部特征,所述樣本圖像包括第一圖像、拍攝地點與所述第一圖像相同的多個第二圖像、以及拍攝地點與所述第一圖像不同的多個第三圖像;
基于所述CNN模型的第二部分將所述局部特征聚合成具有第一維數的特征向量,所述特征向量包括與所述第一圖像、所述第二圖像和所述第三圖像分別對應的第一特征向量、第二特征向量和第三特征向量;
基于所述CNN模型的第三部分得到所述特征向量的壓縮表示向量,所述壓縮表示向量具有小于所述第一維數的第二維數;以及
以使得所述多個圖像對應的壓縮表示向量之間的距離最小化為目標,調整所述第一部分、所述第二部分和所述第三部分的模型參數,直至得到滿足預設條件的CNN模型;
其中,所述的調整所述第一部分、所述第二部分和所述第三部分的模型參數,直至得到滿足預設條件的CNN模型,包括:
基于所述第一特征向量與所述第二特征向量之間的第一距離、以及所述第一特征向量與所述第三特征向量之間的第二距離構建所述CNN模型的損失函數;以及
將所述損失函數經所述CNN模型反向傳播以更新所述模型參數,直至所述CNN模型滿足預設的收斂條件。
2.如權利要求1所述的方法,其特征在于,所述的基于所述CNN模型的第三部分得到所述特征向量的壓縮表示向量,包括:
基于所述第三部分將所述特征向量投影至單位正交空間,得到所述壓縮表示向量。
3.如權利要求2所述的方法,其特征在于,所述第三部分為所述CNN模型中接收所述特征向量輸入的全連接層,所述全連接層包括數量為所述第二維數的神經元,每個神經元的權重矩陣為單位向量且具有所述第一維數,所述神經元的權重矩陣之間滿足正交關系。
4.如權利要求3所述的方法,其特征在于,所述的調整所述第一部分、所述第二部分和所述第三部分的模型參數,還包括:
基于所述權重矩陣的正交約束項構建所述CNN模型的損失函數,所述正交約束項G的表達式為:
G=sum(g(WTW-E))
其中,W為所述神經元的權重矩陣,T表示矩陣轉置,E為已知的單位向量,g表示對矩陣的各個元素求平方,sum表示求和。
5.如權利要求1所述的方法,其特征在于,所述的基于所述第一特征向量與所述第二特征向量之間的第一距離、以及所述第一特征向量與所述第三特征向量之間的第二距離構建所述CNN模型的損失函數,包括:
將所述損失函數構建為
其中L為所述損失函數,l表示最大邊界損失,q為所述第一特征向量,為第i個所述第二特征向量,為第j個所述第三特征向量,m為邊界常數,d表示求向量距離,min表示求最小值。
6.如權利要求1-4任一項所述的方法,其特征在于,所述的基于卷積神經網絡CNN模型的第一部分提取樣本圖像的局部特征,包括:
使用視覺幾何組網絡VGGNet結構提取所述樣本圖像的局部特征。
7.如權利要求1-4任一項所述的方法,其特征在于,所述的基于所述CNN模型的第二部分將所述局部特征聚合成具有第一維數的特征向量,包括:
使用局部聚合描述子向量網絡NetVLAD結構將所述局部特征聚合成所述特征向量。
8.一種地點識別方法,其特征在于,包括:
使用卷積神經網絡CNN模型對采集的圖像提取壓縮表示向量,所述CNN模型根據權利要求1至7中任一項所述的方法訓練得到;以及
基于所述提取的壓縮表示向量進行地點識別。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于騰訊科技(深圳)有限公司,未經騰訊科技(深圳)有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201910390693.2/1.html,轉載請聲明來源鉆瓜專利網。





