[發(fā)明專利]基于顏色空間學(xué)習(xí)的無人機(jī)定位方法有效
| 申請(qǐng)?zhí)枺?/td> | 201611153787.0 | 申請(qǐng)日: | 2016-12-14 |
| 公開(公告)號(hào): | CN108230389B | 公開(公告)日: | 2021-07-13 |
| 發(fā)明(設(shè)計(jì))人: | 賴百勝;章磊;朱純午 | 申請(qǐng)(專利權(quán))人: | 杭州迅蟻網(wǎng)絡(luò)科技有限公司 |
| 主分類號(hào): | G06T7/73 | 分類號(hào): | G06T7/73;G06K9/46;G06K9/62 |
| 代理公司: | 臺(tái)州杭欣專利代理事務(wù)所(普通合伙) 33333 | 代理人: | 潘欣欣 |
| 地址: | 311121 浙江省杭州市余杭區(qū)*** | 國省代碼: | 浙江;33 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 基于 顏色 空間 學(xué)習(xí) 無人機(jī) 定位 方法 | ||
本發(fā)明公開了基于顏色空間學(xué)習(xí)的無人機(jī)定位方法,包括以下步驟,選定一個(gè)合作目標(biāo);定義一個(gè)深度神經(jīng)元網(wǎng)絡(luò);通過SGD算法最小化L的值,求解出深度神經(jīng)元網(wǎng)絡(luò)的參數(shù)值;取一幅測(cè)試圖像Zt,將Zt輸入到輸入模型M中,然后輸出此時(shí)的S,然后計(jì)算Yt;得出合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo);得出四個(gè)合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo),取四個(gè)合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo)的均值,所述均值則為定位結(jié)果。本發(fā)明不需要人為設(shè)置閾值,并且可以通過豐富的樣本,適應(yīng)大量的環(huán)境變化。相比較于現(xiàn)有的轉(zhuǎn)換顏色空間的方法,本方法通過樣本,能夠?qū)W習(xí)到更適宜、更復(fù)雜,且是非線性的顏色空間。
技術(shù)領(lǐng)域
本發(fā)明涉及無人機(jī)定位方法。
背景技術(shù)
現(xiàn)有無人機(jī)定位方法通過相機(jī)對(duì)目標(biāo)進(jìn)行拍攝,在圖像中檢測(cè)目標(biāo)的位置,從而反推出目標(biāo)在無人機(jī)坐標(biāo)系下的位置,其中目標(biāo)是已知特征的合作目標(biāo)。其缺點(diǎn)是,利用圖像對(duì)目標(biāo)檢測(cè)容易受到環(huán)境變化的影響。如當(dāng)合作目標(biāo)是紅色的方塊,在不同的光照和氣候環(huán)境下,相機(jī)拍攝出的目標(biāo)圖像變化比較大,如果用傳統(tǒng)的二值法,需要人工地在不同的環(huán)境下設(shè)置不同的閾值,且閾值的設(shè)置依賴經(jīng)驗(yàn),這大大降低了定位的可靠性。
發(fā)明內(nèi)容
本發(fā)明的目的是克服現(xiàn)有產(chǎn)品中不足,提供一種基于顏色空間學(xué)習(xí)的無人機(jī)定位方法。
為了達(dá)到上述目的,本發(fā)明是通過以下技術(shù)方案實(shí)現(xiàn)的:
基于顏色空間學(xué)習(xí)的無人機(jī)定位方法,包括以下步驟:
(1)、選定一個(gè)合作目標(biāo),所述合作目標(biāo)是一個(gè)正方形的具有顏色C的顏色塊Q,其中Q的物理邊長為l,將有N幅帶有合作目標(biāo)圖像的集合標(biāo)記為I,將有N幅帶有標(biāo)記圖像的集合標(biāo)記為Y,標(biāo)記圖像中像素值為1的區(qū)域代表顏色C的區(qū)域,其它區(qū)域的像素值為0;
(2)、定義一個(gè)深度神經(jīng)元網(wǎng)絡(luò),將合作目標(biāo)圖像的集合I和帶有標(biāo)記圖像的集合Y都輸入到深度神經(jīng)元網(wǎng)絡(luò)中,然后輸出L、S、Si,j,k,所述Si,j,k為S中坐標(biāo)為i,j,k的一個(gè)元素,所述S為每個(gè)像素點(diǎn)在學(xué)習(xí)到的顏色空間中的表示;
(3)、通過SGD算法最小化L的值,求解出深度神經(jīng)元網(wǎng)絡(luò)的參數(shù)值,得出此時(shí)參數(shù)值對(duì)應(yīng)的深度神經(jīng)元網(wǎng)絡(luò),此時(shí)的深度神經(jīng)元網(wǎng)絡(luò)標(biāo)記為模型M;
(4)、取一幅測(cè)試圖像Zt,將Zt輸入到模型M中,然后輸出此時(shí)S,然后計(jì)算Yt,所述所述S:,:,k為此時(shí)S中第三維坐標(biāo)取k的所有值組成的矩陣,Yt等于1的區(qū)域?yàn)轭A(yù)測(cè)的顏色C的區(qū)域Q,對(duì)區(qū)域Q計(jì)算最小外接正方形,將正方形中心的像素坐標(biāo)標(biāo)記為(cx,cy),將正方形的像素寬標(biāo)記為w;
(5)、將相機(jī)的內(nèi)參矩陣標(biāo)記為K,
所述f為相機(jī)的焦距,所述(u0,v0)為相機(jī)成像中心點(diǎn),則合作目標(biāo)圖像的中心點(diǎn)在相機(jī)成像平面的齊次坐標(biāo)為:
所述K-1為矩陣K的逆矩陣;
(6)、得出合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo)為:
(7)、選取四個(gè)不同顏色C的合作目標(biāo),所述四個(gè)不同顏色的合作目標(biāo)呈田字型排布,得出四個(gè)合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo),取四個(gè)合作目標(biāo)圖像的中心點(diǎn)在相機(jī)坐標(biāo)系下的坐標(biāo)的均值,所述均值則為定位結(jié)果。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于杭州迅蟻網(wǎng)絡(luò)科技有限公司,未經(jīng)杭州迅蟻網(wǎng)絡(luò)科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請(qǐng)聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201611153787.0/2.html,轉(zhuǎn)載請(qǐng)聲明來源鉆瓜專利網(wǎng)。
- 根據(jù)用戶學(xué)習(xí)效果動(dòng)態(tài)變化下載學(xué)習(xí)數(shù)據(jù)的系統(tǒng)及方法
- 用于智能個(gè)人化學(xué)習(xí)服務(wù)的方法
- 漸進(jìn)式學(xué)習(xí)管理方法及漸進(jìn)式學(xué)習(xí)系統(tǒng)
- 輔助學(xué)習(xí)的方法及裝置
- 基于人工智能的課程推薦方法、裝置、設(shè)備及存儲(chǔ)介質(zhì)
- 基于強(qiáng)化學(xué)習(xí)的自適應(yīng)移動(dòng)學(xué)習(xí)路徑生成方法
- 一種線上視頻學(xué)習(xí)系統(tǒng)
- 一種基于校園大數(shù)據(jù)的自適應(yīng)學(xué)習(xí)方法、裝置及設(shè)備
- 一種學(xué)習(xí)方案推薦方法、裝置、設(shè)備和存儲(chǔ)介質(zhì)
- 游戲?qū)W習(xí)效果評(píng)測(cè)方法及系統(tǒng)





