[發(fā)明專利]基于深度學(xué)習(xí)的相似圖像匹配方法有效
| 申請(qǐng)?zhí)枺?/td> | 202010131479.8 | 申請(qǐng)日: | 2020-02-28 |
| 公開(公告)號(hào): | CN111353538B | 公開(公告)日: | 2023-04-07 |
| 發(fā)明(設(shè)計(jì))人: | 金海燕;彭晶;肖照林 | 申請(qǐng)(專利權(quán))人: | 西安理工大學(xué) |
| 主分類號(hào): | G06V10/74 | 分類號(hào): | G06V10/74;G06V10/82;G06V10/774;G06N3/0464;G06N3/08 |
| 代理公司: | 西安弘理專利事務(wù)所 61214 | 代理人: | 張皎 |
| 地址: | 710048 陜*** | 國省代碼: | 陜西;61 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 深度 學(xué)習(xí) 相似 圖像 匹配 方法 | ||
1.基于深度學(xué)習(xí)的相似圖像匹配方法,其特征在于,具體按照以下步驟實(shí)施:
步驟1、向目標(biāo)檢測(cè)網(wǎng)絡(luò)中輸入目標(biāo)圖像,通過該目標(biāo)檢測(cè)網(wǎng)絡(luò)輸出目標(biāo)圖像中各個(gè)物體對(duì)應(yīng)的檢測(cè)框、檢測(cè)精度;
步驟2、根據(jù)檢測(cè)精度對(duì)檢測(cè)框進(jìn)行篩選,再利用物體位置解析算法對(duì)篩選出的檢測(cè)框進(jìn)行解析處理得到目標(biāo)圖像中任意兩個(gè)物體的相對(duì)位置關(guān)系;
步驟3、計(jì)算目標(biāo)圖像中任意兩個(gè)物體之間的距離,再根據(jù)任意兩個(gè)物體之間的距離、各個(gè)物體的重心以及步驟2得到的任意兩個(gè)物體的相對(duì)位置關(guān)系構(gòu)建目標(biāo)圖像場(chǎng)景目標(biāo)位置關(guān)系的圖模型;
步驟4、類似地,向目標(biāo)檢測(cè)網(wǎng)絡(luò)中輸入候選數(shù)據(jù)集樣本圖像,重復(fù)步驟1至3對(duì)候選數(shù)據(jù)集中的每一張樣本圖像建立場(chǎng)景目標(biāo)位置關(guān)系的圖模型,將目標(biāo)圖像場(chǎng)景目標(biāo)位置關(guān)系的圖模型與所有樣本圖像場(chǎng)景目標(biāo)位置關(guān)系的圖模型一一進(jìn)行場(chǎng)景匹配,確定選擇出與目標(biāo)圖像相似度最高的三張樣本圖像。
2.如權(quán)利要求1所述的基于深度學(xué)習(xí)的相似圖像匹配方法,其特征在于,所述步驟1中的目標(biāo)檢測(cè)網(wǎng)絡(luò)為基于ResNet-101的Faster?R-CNN檢測(cè)網(wǎng)絡(luò),所述基于ResNet-101的Faster?R-CNN檢測(cè)網(wǎng)絡(luò)模型經(jīng)過Visual?Genome數(shù)據(jù)集訓(xùn)練。
3.如權(quán)利要求1所述的基于深度學(xué)習(xí)的相似圖像匹配方法,其特征在于,所述步驟2具體操作如下:
步驟2.1、設(shè)定閾值為0.8,將檢測(cè)精度大于0.8的檢測(cè)框篩選出來;
步驟2.2、計(jì)算篩選出的各個(gè)檢測(cè)框的重心,具體操作如式(1)所示:
(cgx,cgy)=((x1i+(x2i-x1i))/2,(y1i+(y2i-y1i))/2)??????(1)
式中,x1i為檢測(cè)框左上角的x軸坐標(biāo)值,y1i為檢測(cè)框左上角的y軸坐標(biāo)值,x2i為x1i與檢測(cè)框右上角的x軸坐標(biāo)值,y2i檢測(cè)框左下角的y軸坐標(biāo)值,cgx為檢測(cè)框重心的x軸坐標(biāo)值,cgy為檢測(cè)框重心的y軸坐標(biāo)值;
步驟2.3、根據(jù)檢測(cè)框的重心計(jì)算任意兩個(gè)檢測(cè)框重心之間的橫坐標(biāo)之差、縱坐標(biāo)之差,具體操作如式(2)所示:
dx=(cgxj-cgxi)
dy=(cgyj-cgUi)??????????(2)
式中,dx是任意兩個(gè)檢測(cè)框重心的x軸坐標(biāo)值之差,dy是任意兩個(gè)檢測(cè)框重心的y軸坐標(biāo)值之差;
步驟2.4、根據(jù)步驟3.3得到的任意兩個(gè)檢測(cè)框重心之間的橫坐標(biāo)之差、縱坐標(biāo)之差,確定任意兩個(gè)檢測(cè)框重心之間的連線與y軸的正方向夾角θ,具體操作如下:
若dx=0并且dy0時(shí),θ=0;若dx=0并且dy0時(shí),θ=180;若dy=0并且dx0時(shí),θ=90;若dy=0并且dx0時(shí),θ=270;若dx0并且dy0時(shí),θ=δ;若dx0并且dy0時(shí),θ=360+δ;若dx0并且dy0時(shí),θ=180+δ;若dx0并且dy0時(shí),θ=180+δ;
其中,δ計(jì)算過程如式(3)所示:
δ=atan(dx/dy)*180/π???????????(3);
步驟2.5、根據(jù)任意兩個(gè)檢測(cè)框重心之間的連線與y軸的正方向夾角θ,在物體間相對(duì)位置關(guān)系映射表中對(duì)應(yīng)尋找并確定任意兩個(gè)物體的相對(duì)位置關(guān)系。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于西安理工大學(xué),未經(jīng)西安理工大學(xué)許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010131479.8/1.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 根據(jù)用戶學(xué)習(xí)效果動(dòng)態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個(gè)人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動(dòng)學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 游戲?qū)W習(xí)效果評(píng)測(cè)方法及系統(tǒng)





