[發(fā)明專利]待作業(yè)區(qū)域邊界獲取方法、裝置,作業(yè)航線規(guī)劃方法有效
| 申請?zhí)枺?/td> | 201810236417.6 | 申請日: | 2018-03-21 |
| 公開(公告)號: | CN110297483B | 公開(公告)日: | 2020-12-18 |
| 發(fā)明(設計)人: | 代雙亮 | 申請(專利權)人: | 廣州極飛科技有限公司 |
| 主分類號: | G05D1/02 | 分類號: | G05D1/02 |
| 代理公司: | 北京潤澤恒知識產權代理有限公司 11319 | 代理人: | 莎日娜 |
| 地址: | 510000 廣東省廣州*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 作業(yè) 區(qū)域 邊界 獲取 方法 裝置 航線 規(guī)劃 | ||
本申請?zhí)峁┝艘环N待作業(yè)區(qū)域邊界獲取方法,屬于農業(yè)植保技術領域,用于解決現(xiàn)有技術中獲取待作業(yè)區(qū)域邊界時效率低下的問題。本申請實施例公開的待作業(yè)區(qū)域邊界獲取方法包括:輸入原始圖像至預設識別模型,所述原始圖像中包括待作業(yè)區(qū)域;獲取所述預設識別模型輸出的目標圖像;基于所述目標圖像獲得所述待作業(yè)區(qū)域的邊界。本申請通過在需要對待作業(yè)區(qū)域進行作業(yè)航線規(guī)劃時,將包含待作業(yè)區(qū)域的原始圖像輸入至預先訓練深度學習網絡模型,由所述深度學習網絡模型獲取待作業(yè)區(qū)域邊界,并進一步用于作業(yè)航線規(guī)劃,可以自動識別待作業(yè)區(qū)域邊界,自動進行作業(yè)航線規(guī)劃,不需要人工參與,有效提升了獲取待作業(yè)區(qū)域邊界的效率。
技術領域
本申請涉及農業(yè)植保技術領域,尤其涉及一種待作業(yè)區(qū)域邊界獲取方法、裝置,作業(yè)航線規(guī)劃方法及裝置。
背景技術
在農業(yè)植保應用中,例如:農藥噴灑,無人機相對于其他農機有著巨大的優(yōu)勢,近年來得到了廣泛的應用。無人機植保需要精準的航線,現(xiàn)有技術中的航線規(guī)劃通常有兩種方法:人工規(guī)劃和基于測繪數(shù)據(jù)自動規(guī)劃。在基于測繪數(shù)據(jù)自動規(guī)劃的過程中,測繪數(shù)據(jù)的準確度直接影響規(guī)劃無人機飛行航線的準確度和安全性。現(xiàn)有技術中,常用的測繪數(shù)據(jù),如待作業(yè)區(qū)域的農田邊界通常是人工測繪,或者,利用測繪無人機初步獲取農田數(shù)據(jù)之后,再由人工處理,以得到最終的農田邊界數(shù)據(jù),以基于農田邊界數(shù)據(jù)進行無人機的作業(yè)航線規(guī)劃。可見,現(xiàn)有技術中的農田邊界數(shù)據(jù)獲取,離不開人工處理。
綜上所述,現(xiàn)有技術中的農田邊界獲取方法至少存在由于需要人工處理而存在的效率低下的問題。
發(fā)明內容
本申請實施例提供一種待作業(yè)區(qū)域邊界獲取方法,解決現(xiàn)有技術中的待作業(yè)區(qū)域邊界獲取方法存在的由于需要人工處理而存在的效率低下的問題。
第一方面,本申請實施例提供了一種待作業(yè)區(qū)域邊界獲取方法,包括:
輸入原始圖像至預設識別模型,所述原始圖像中包括待作業(yè)區(qū)域;
獲取所述預設識別模型輸出的目標圖像;
基于所述目標圖像獲得所述待作業(yè)區(qū)域的邊界。
可選的,所述預設識別模型為深度學習網絡模型,所述深度學習網絡模型包括:卷積模塊、反卷積模塊和特征融合模塊,所述卷積模塊包括第一數(shù)量的卷積層,所述反卷積模塊包括第二數(shù)量的反卷積層,其中,
所述卷積模塊,用于通過所述第一數(shù)量的卷積層提取輸入的所述原始圖像的特征,并將所述特征輸出至所述反卷積模塊;
所述反卷積模塊,用于通過所述第二數(shù)量的反卷積層,基于所述卷積模塊輸出的特征,進行圖像特征還原處理;
所述特征融合模塊,用于將所述反卷積模塊各層進行圖像特征還原處理得到的圖像特征進行融合,得到輸出圖像。
進一步可選的,所述卷積層和反卷積層采用級聯(lián)結構連接,所述反卷積模塊,還用于通過所述第二數(shù)量的反卷積層獲取與相應反卷積層級聯(lián)的所述卷積層的卷積處理信息,以及,通過將相應反卷積層上層的反卷積結果和與相應反卷積層級聯(lián)的所述卷積層的所述卷積處理信息進行疊加,得到所述相應反卷積層的反卷積結果。
可選的,每個所述卷積層通過對輸入至所述卷積層的圖像進行膨脹運算,提取輸入至所述卷積層的圖像的特征。
可選的,所述反卷積模塊采用可分離卷積結構。
可選的,所述深度學習網絡模型的損失函數(shù)為:
loss=-β∑logp(yj=1|X)-(1-β)∑log(yj=0|X),其中,loss為損失值,X為標注了目標區(qū)域和非目標區(qū)域的農田圖像樣本,β是所述圖像樣本X中目標地塊的像素數(shù)占所述圖像樣本X總像素數(shù)的比值,p(yj=1=1|X)是所述圖像樣本X中像素j通過激活函數(shù)的輸出值。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廣州極飛科技有限公司,未經廣州極飛科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810236417.6/2.html,轉載請聲明來源鉆瓜專利網。





