[發明專利]基于全手掌的掌紋識別方法、裝置、終端設備及存儲介質在審
| 申請號: | 202110826116.0 | 申請日: | 2021-07-21 |
| 公開(公告)號: | CN113705344A | 公開(公告)日: | 2021-11-26 |
| 發明(設計)人: | 鐘德星;邵會凱 | 申請(專利權)人: | 西安交通大學 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/46;G06N3/04;G06N3/08 |
| 代理公司: | 西安通大專利代理有限責任公司 61200 | 代理人: | 朱海臨 |
| 地址: | 710049 *** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 手掌 掌紋 識別 方法 裝置 終端設備 存儲 介質 | ||
1.基于全手掌的掌紋識別方法,其特征在于,包括以下步驟:
采集手掌圖像,并定位食指指跟外側的關鍵點與小拇指指跟外側的關鍵點;
提取全手掌區域;
劃分全手掌區域為若干子區域,并提取子區域的特征;
對子區域的特征進行融合,得到全手掌區域的特征;
計算全手掌區域特征之間的距離,實現身份識別。
2.根據權利要求1所述的基于全手掌的掌紋識別方法,其特征在于,所述采集手掌圖像時,用戶根據自己的意愿自由放置手的位置進行手掌圖像采集。
3.根據權利要求1所述的基于全手掌的掌紋識別方法,其特征在于,所述定位食指指跟外側的關鍵點與小拇指指跟外側的關鍵點的具體方法如下:
首先基于YOLOv5算法檢測手掌所在的區域,將輸入圖片劃分為7×7個格子,手掌中心點所在的格子用于預測手掌,其中每個格子預測兩個目標框,輸出目標框的中心位置坐標、寬度和高度以及置信度;訓練時采用的損失函數為邊界框置信度損失Lconf、類別損失Lcla與坐標損失LGIOU:
L1=Lconf+Lcla+LGIOU
在定位到的手掌區域范圍內采用回歸模型完成最終的關鍵點定位,將定位的手掌區域圖像輸入到回歸模型中,輸出預測的兩個點的坐標;訓練時將預測坐標與標注的真實坐標之間的均方誤差作為損失函數:
其中(x,y)表示關鍵點的真實坐標,表示關鍵點的預測坐標。
4.根據權利要求1所述的基于全手掌的掌紋識別方法,其特征在于,所述提取全手掌區域的具體方法如下:
食指指跟外側的關鍵點A與小拇指指跟外側的關鍵點B在全手掌區域的邊緣,將二者分別作為方形全手掌區域的兩個頂點,并將二者之間的距離定義為方形全手掌區域的邊長L,所述邊長L通過計算關鍵點A與關鍵點B坐標之間的歐氏距離獲得;以線段AB的垂線方向作為全手掌區域的方向,在人手圖像中裁剪出全手掌區域。
5.根據權利要求1所述的基于全手掌的掌紋識別方法,其特征在于,所述劃分全手掌區域為若干子區域,并提取子區域的特征的具體方法如下:
依據手掌功能區將全手掌區域均勻劃分為四個子區域P1、P2、P3、P4,然后將四個子區域P1、P2、P3、P4分別輸入到四個卷積神經網絡f1、f2、f3、f4中,分別提取到四個子區域的特征為f1(P1)、f2(P2)、f3(P3)、f4(P4),其中f1、f2、f3、f4采用VGG16網絡結構或ResNet網絡結構的卷積部分;然后將f1(P1)、f2(P2)、f3(P3)、f4(P4)按照通道對齊的方式拼接成一個特征,表示為f(P1,P2,P3,P4)。
6.根據權利要求5所述的基于全手掌的掌紋識別方法,其特征在于,所述對子區域的特征進行融合,得到全手掌區域的特征的具體方法如下:
將特征f(P1,P2,P3,P4)輸入到融合網絡f中,最終得到全手掌區域的特征f(P)。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于西安交通大學,未經西安交通大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202110826116.0/1.html,轉載請聲明來源鉆瓜專利網。





