[發明專利]目標對象的行為預測方法、裝置、處理設備及智能置物架有效
| 申請號: | 201811608180.6 | 申請日: | 2018-12-26 |
| 公開(公告)號: | CN109711498B | 公開(公告)日: | 2022-09-06 |
| 發明(設計)人: | 丁予春;陳晨 | 申請(專利權)人: | 北京曠視科技有限公司 |
| 主分類號: | G06K17/00 | 分類號: | G06K17/00;G06V20/40;H04N7/18;G01G19/52 |
| 代理公司: | 北京超凡志成知識產權代理事務所(普通合伙) 11371 | 代理人: | 唐維虎 |
| 地址: | 100000 北京*** | 國省代碼: | 北京;11 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 目標 對象 行為 預測 方法 裝置 處理 設備 智能 置物架 | ||
1.一種目標對象的行為預測方法,用于置物架,其特征在于,所述方法包括:
獲取目標對象的視頻幀圖像;
獲取指定置物架的傳感器監測數據;其中,所述指定置物架與所述目標對象相距預設距離范圍內;所述傳感器監測數據包括基于深度傳感器獲得的坐標監測數據和/或基于重量傳感器獲得的重量監測數據;
基于所述傳感器監測數據,從所述視頻幀圖像中抽取符合預設條件的視頻幀圖像,得到第一圖像;其中,所述符合預設條件的視頻幀圖像包括以下一種或多種:圖像清晰度高于預設清晰度的視頻幀圖像、與傳感器監測數據中的指定值或邊界值對應的視頻幀圖像、與傳感器的觸發起始時間或觸發結束時間對應的視頻幀圖像;
對所述第一圖像中目標對象的姿態進行識別,得到姿態識別結果;
對所述傳感器監測數據進行聚類,得到監測數據子集;
基于所述監測數據子集和所述姿態識別結果,預測所述目標對象的行為。
2.根據權利要求1所述的方法,其特征在于,所述獲取目標對象的視頻幀圖像的步驟,包括:
通過安裝在所述置物架第一指定位置的第一攝像頭采集所述目標對象的視頻幀圖像。
3.根據權利要求1所述的方法,其特征在于,所述獲取指定置物架的傳感器監測數據的步驟,包括:
通過安裝在所述置物架第二指定位置的至少一個傳感器獲取指定置物架的傳感器監測數據;其中,所述傳感器包括重量傳感器和/或深度傳感器。
4.根據權利要求1所述的方法,其特征在于,所述基于所述監測數據子集和所述姿態識別結果,預測所述目標對象的行為的步驟,包括:
根據所述監測數據子集中的傳感器監測數據對所述目標對象的行為進行預測,得到第一預測結果;
根據所述姿態識別結果對所述目標對象的行為進行預測,得到第二預測結果;
基于所述第一預測結果和所述第二預測結果,生成所述目標對象的行為事件。
5.根據權利要求4所述的方法,其特征在于,所述方法還包括:
基于所述傳感器監測數據和所述視頻幀圖像,生成所述行為事件的置信度;
判斷所述行為事件的置信度是否高于預設的置信閾值;
如果是,記錄所述行為事件;
如果否,發起錯誤提示。
6.根據權利要求1所述的方法,其特征在于,所述方法還包括:
通過安裝在第三指定位置的第二攝像頭獲取所述指定置物架上的物品圖像;
所述根據所述視頻幀圖像和所述傳感器監測數據,預測所述目標對象的行為的步驟,包括:
根據所述視頻幀圖像、所述物品圖像和所述傳感器監測數據,預測所述目標對象的行為。
7.一種目標對象的行為預測裝置,其特征在于,用于置物架,所述裝置包括:
圖像獲取模塊,用于獲取目標對象的視頻幀圖像;
數據獲取模塊,用于獲取指定置物架的傳感器監測數據;其中,所述指定置物架與所述目標對象相距預設距離范圍內;所述傳感器監測數據包括基于深度傳感器獲得的坐標監測數據和/或基于重量傳感器獲得的重量監測數據;
行為預測模塊,用于基于所述傳感器監測數據,從所述視頻幀圖像中抽取符合預設條件的視頻幀圖像,得到第一圖像;對所述第一圖像中目標對象的姿態進行識別,得到姿態識別結果;對所述傳感器監測數據進行聚類,得到監測數據子集;基于所述監測數據子集和所述姿態識別結果,預測所述目標對象的行為,其中,所述符合預設條件的視頻幀圖像包括以下一種或多種:圖像清晰度高于預設清晰度的視頻幀圖像、與傳感器監測數據中的指定值或邊界值對應的視頻幀圖像、與傳感器的觸發起始時間或觸發結束時間對應的視頻幀圖像。
8.一種處理設備,其特征在于,包括處理器和存儲器,所述存儲器上存儲有計算機程序,所述計算機程序在被所述處理器運行時執行如權利要求1至6任一項所述的方法。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于北京曠視科技有限公司,未經北京曠視科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811608180.6/1.html,轉載請聲明來源鉆瓜專利網。





