[發明專利]基于雙相機陣列的合成孔徑目標多視角成像方法有效
| 申請號: | 201610044284.3 | 申請日: | 2016-01-22 |
| 公開(公告)號: | CN105589072B | 公開(公告)日: | 2017-11-17 |
| 發明(設計)人: | 裴炤;張艷寧;孫莉;馬苗;汪西莉;郭敏 | 申請(專利權)人: | 陜西師范大學 |
| 主分類號: | G01S13/89 | 分類號: | G01S13/89 |
| 代理公司: | 西北工業大學專利中心61204 | 代理人: | 王鮮凱 |
| 地址: | 710119 陜西*** | 國省代碼: | 陜西;61 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基于 相機 陣列 合成 孔徑 目標 視角 成像 方法 | ||
技術領域
本發明涉及一種目標成像方法,特別是涉及一種基于雙相機陣列的合成孔徑目標多視角成像方法。
背景技術
文獻“A novel multi-object detection method in complex scene using synthetic aperture imaging,Pattern Recognition,2012,p1637–1658,April 2012”公開了一種基于單相機陣列的動目標成像方法。該方法首先選定某一個相機視角作為參考視角,通過基于混合高斯模型的背景差對各個視角獲得的圖像數據進行前景提取,然后將獲得的各個前景概率圖像通過平面加視差的方法投影到不同深度,并加和求均值。采用一個給定的閾值對合成后的前景概率圖進行統計即可獲得最終目標所在的深度,從而較好的解決了相機陣列合成孔徑成像中動目標成像問題。然而,該方法僅適用于動態變化的目標成像,且當目標間深度差距較小時,這種方法將會失效。
發明內容
為了克服現有目標成像方法成像精度低的不足,本發明提供一種基于雙相機陣列的合成孔徑目標多視角成像方法。該方法采用前后對稱的雙面棋盤標定板,選定兩相機陣列平面的交線作為所有聚焦平面簇的交線,利用Scheimpflug布局對雙相機陣列進行標定,依據各相機投影在聚焦平面的方差對各個深度合成孔徑圖像進行統計,最終獲得目標所在最優聚焦平面的成像結果。在充分利用多視角信息的基礎上,不依賴于目標狀態信息,解決多個相機陣列聯動時合成孔徑目標成像問題,即在一定的范圍內,用雙相機陣列的互信息共享,實現目標多視角成像,可以提高目標間深度差距較小時成像的精度。
本發明解決其技術問題所采用的技術方案是:一種基于雙相機陣列的合成孔徑目標多視角成像方法,其特點是包括以下步驟:
步驟一、采用前后對稱的雙面棋盤標定版,選定兩相機陣列平面的交線作為所有聚焦平面簇的交線,利用Scheimpflug配置對雙相機陣列進行標定。平面πr為選定的參考平面,k為兩相機陣列平面的交線。利用雙面黑白格對稱標定板,分別在距平面πr不同角度且均相交于k的若干平面上對雙相機陣列進行標定,獲得相機間距離參數ΔX,應用公式(1)得到視差Δp
式中,θ為任意平面與某一相機陣列的夾角大小,r為參考平面與該相機陣列的夾角。
基于視差,將各相機陣列聚焦平面,投影至相交于直線k的平面簇上,應用公式(2)獲得在穿過k任意傾斜角度平面的合成孔徑成像結果
式中,為相機陣列中各視角投影在參考平面πr的投影圖像N為單相機陣列中的相機數目,i為相機序號。
步驟二、采用基于方差的合成孔徑成像算法對各個深度合成孔徑圖像進行統計,應用公式(3)計算各視角各對應像素m的方差
其中
式中,為聚焦角度θ上對應m點的均值。設一個角度范圍為D。
在統計的基礎上,當焦平面接近最優聚焦角度時,目標上對應像素點m的方差將會越接近于H,H為一接近于0的值,應用公式(5)得到m在角度θ的標記值
在當前存在目標區域范圍內,搜索角度范圍中最優角度是D中具有最小方差的角度,即
d=arg minD{var(I)}.(6)
式中,d為某一相機陣列在探測區域D中的最優角度。
步驟三、從每個相機的參考視角中的位置確定合成孔徑成像中的各像素值。
通過被標記的合成孔徑成像得到每個相機視角在不同深度的被標記的參考平面圖像。再應用公式(8)將參考平面上每個相機視角的所有深度范圍內的標記單獨融合。
式中,&&表示在同一位置不同深度的每個標記的與操作。f表示某像素點的標記,若θ從0到π,中有一個標記為0,則為0,否則為1。將被標記的參考圖像投影至第二相機陣列目標平面。計算每個相機視角的圖像的平均值并去除被標記為0的像素。通過應用公式(9)去除遮擋后得到最終的透視結果。
式中,為最終的透視結果。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于陜西師范大學,未經陜西師范大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201610044284.3/2.html,轉載請聲明來源鉆瓜專利網。





