[發(fā)明專利]一種基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法有效
| 申請(qǐng)?zhí)枺?/td> | 201710703271.7 | 申請(qǐng)日: | 2017-08-16 |
| 公開(公告)號(hào): | CN107480261B | 公開(公告)日: | 2020-06-16 |
| 發(fā)明(設(shè)計(jì))人: | 劉威鑫;馬雷;張雪婷 | 申請(qǐng)(專利權(quán))人: | 上海荷福人工智能科技(集團(tuán))有限公司 |
| 主分類號(hào): | G06F16/583 | 分類號(hào): | G06F16/583;G06K9/00;G06K9/62;G06N3/08 |
| 代理公司: | 成都華風(fēng)專利事務(wù)所(普通合伙) 51223 | 代理人: | 徐豐;張巨箭 |
| 地址: | 201600 上海市松*** | 國(guó)省代碼: | 上海;31 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 深度 學(xué)習(xí) 細(xì)粒 度人 圖像 快速 檢索 方法 | ||
1.一種基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法,其特征在于,包括如下內(nèi)容:
構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)模型,并在所述深度卷積神經(jīng)網(wǎng)絡(luò)模型的各分支層添加用于計(jì)算損失函數(shù)的損失層;
對(duì)所述深度卷積神經(jīng)網(wǎng)絡(luò)模型的參數(shù)進(jìn)行初始化;
構(gòu)建數(shù)據(jù)集,并按照預(yù)設(shè)比例,將所述數(shù)據(jù)集中的圖片隨機(jī)劃分成訓(xùn)練集、測(cè)試集、驗(yàn)證集;
設(shè)定深度卷積神經(jīng)網(wǎng)絡(luò)模型的學(xué)習(xí)參數(shù),具體包括設(shè)定深度卷積神經(jīng)網(wǎng)絡(luò)模型中的各個(gè)損失層對(duì)應(yīng)的權(quán)重,各分支層的學(xué)習(xí)率、動(dòng)量以及權(quán)重衰減,一次輸入樣本的數(shù)量,網(wǎng)絡(luò)訓(xùn)練的迭代次數(shù);
對(duì)所述深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練,采用隨機(jī)梯度下降和反向傳播算法更新所述深度卷積神經(jīng)網(wǎng)絡(luò)模型的參數(shù);
對(duì)所述訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行測(cè)試,將測(cè)試集中的人臉圖片輸入所述訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò)模型中,得到測(cè)試集的每張人臉圖像的哈希碼,將訓(xùn)練集和驗(yàn)證集中的人臉圖片整合為數(shù)據(jù)庫(kù),并將所述數(shù)據(jù)庫(kù)中的人臉圖片輸入所述訓(xùn)練后的深度卷積神經(jīng)網(wǎng)絡(luò)模型中,得到數(shù)據(jù)庫(kù)中的每張人臉圖像的哈希碼,將測(cè)試集的每張人臉圖像的哈希碼與數(shù)據(jù)庫(kù)中的每張人臉圖像的哈希碼計(jì)算漢明距離,獲得漢明距離小于2的人臉圖片樣本構(gòu)成的子數(shù)據(jù)庫(kù),計(jì)算獲得測(cè)試集中的每張人臉圖像的哈希碼與所述子數(shù)據(jù)庫(kù)中的每張人臉圖像的哈希碼,獲得測(cè)試集中每張人臉圖像的哈希碼與所述子數(shù)據(jù)庫(kù)中的每張人臉圖像的哈希碼的加權(quán)漢明距離,根據(jù)所述加權(quán)漢明距離的值的大小,對(duì)所述子數(shù)據(jù)庫(kù)中的人臉圖片進(jìn)行順次排序,最終得到人臉檢索結(jié)果;
所述構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)模型,并在所述深度卷積神經(jīng)網(wǎng)絡(luò)模型的各分支層添加用于計(jì)算損失函數(shù)的損失層,具體包括:
保留VGG模型從conv1層到fc7層的所有層結(jié)構(gòu);
去掉VGG模型的fc8層以及最后的損失層;
在所述fc7層后接一個(gè)全連接層fc8層,并在fc8層后面添加softmax損失層;
在所述fc7層后面接一個(gè)全連接層fc9層,并在fc9層后面加成對(duì)監(jiān)督的哈希碼損失層;
在所述fc9層后連接一個(gè)逐類別逐比特的權(quán)重層,在所述逐類別逐比特的權(quán)重層后面添加三元的排序損失層。
2.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法,其特征在于,所述softmax損失層的公式如下:
其中,n表示一次輸入樣本的數(shù)量,c表示人臉的類別數(shù)量,表示人臉i的標(biāo)簽,如果i=j(luò),則為1,否則為0,為fc8層的輸出。
3.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法,其特征在于,所述成對(duì)監(jiān)督的哈希碼損失層的公式如下:
其中,Sij為成對(duì)的監(jiān)督矩陣,矩陣?yán)锏脑厝≈禐?或1,Sij=1表示第i張人臉圖片與第j張人臉圖片相似,否則不相似,其中,ui表示第i張人臉圖片經(jīng)過fc9層的輸出,表示符號(hào)函數(shù)具體公式如下:
bi為第i張人臉圖像的哈希碼,Θij表示第i張人臉圖像與第j張人臉圖像的視覺相似程度。
4.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法,其特征在于,所述逐類別逐比特的權(quán)重層L是一個(gè)大小為c×m的矩陣W,所述三元的排序損失層的具體公式如下:
其中,構(gòu)成了一組三元圖片索引,為sigmoid函數(shù),τ為一個(gè)超參數(shù)用來控制與之間的間隔,Φij定義的形式為最小化JR相當(dāng)于最大化與的距離,即使得(i,i+)之間的相似性大于(i,i-)之間的相似性。
5.根據(jù)權(quán)利要求1所述的基于深度學(xué)習(xí)細(xì)粒度人臉圖像快速檢索方法,其特征在于,在構(gòu)建深度卷積神經(jīng)網(wǎng)絡(luò)模型,并在所述深度卷積神經(jīng)網(wǎng)絡(luò)模型的各分支層添加用于計(jì)算損失函數(shù)的損失層之后,還包括:
構(gòu)建平衡各損失層的目標(biāo)函數(shù),并對(duì)所述目標(biāo)函數(shù)進(jìn)行松弛。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于上海荷福人工智能科技(集團(tuán))有限公司,未經(jīng)上海荷福人工智能科技(集團(tuán))有限公司許可,擅自商用是侵權(quán)行為。如果您想購(gòu)買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710703271.7/1.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 根據(jù)用戶學(xué)習(xí)效果動(dòng)態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個(gè)人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動(dòng)學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 游戲?qū)W習(xí)效果評(píng)測(cè)方法及系統(tǒng)





