[發明專利]一種數據的多維映射方法、裝置及計算機可讀存儲介質在審
| 申請號: | 201810255247.6 | 申請日: | 2018-03-26 |
| 公開(公告)號: | CN108460152A | 公開(公告)日: | 2018-08-28 |
| 發明(設計)人: | 王智華 | 申請(專利權)人: | 王智華 |
| 主分類號: | G06F17/30 | 分類號: | G06F17/30;G06N99/00 |
| 代理公司: | 深圳市世紀恒程知識產權代理事務所 44287 | 代理人: | 胡海國 |
| 地址: | 450000 河南省鄭州市*** | 國省代碼: | 河南;41 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 多維 多維傳感器 一維傳感器 計算機可讀存儲介質 條件類別 映射 標簽 傳統神經網絡 被監測對象 傳感器識別 可視化圖像 仿真數據 工具軟件 故障信息 三維模型 數據對應 特性信息 物理引擎 映射系統 映射裝置 預測能力 網絡 傳統的 可視化 建模 三維 重建 分析 | ||
本發明公開了一種數據的多維映射方法,通過基于物理引擎生成的仿真數據訓練多維映射系統中的生成網絡,以使所述生成網絡的預測能力逐漸增強;然后獲取一維傳感器數據和條件類別標簽,以一維傳感器數據和條件類別標簽作為生成網絡的輸入,得到多維傳感器數據;之后對多維傳感器數據進行多維建模與可視化分析,得到多維傳感器數據對應的相關被監測對象信息。本發明還公開了一種數據的多維映射裝置及計算機可讀存儲介質。本方法能夠在給定對象的一維傳感器數據的情況下重建對象的整個三維外觀和結構,以供其他工具軟件基于三維模型或可視化圖像得到上述對象的故障信息或特性信息,徹底改變了傳統的傳感器識別模式,克服了傳統神經網絡的局限性。
技術領域
本發明涉及深度學習技術領域,尤其涉及一種數據的多維映射方法、裝置及計算機可讀存儲介質。
背景技術
隨著物聯網時代的到來,高維度數據能夠提供大量傳感器數據信息,其中包含的潛變量更是具有很高的數據價值。然而,由于缺乏適當的分析方法,目前物聯網的主要應用還是局限于數據檢測與預警,對于如何深度挖掘傳感器數據的價值,仍然缺乏有效的方法。一方面,由于物聯網使用的是分布式傳感器,因此產生的數據基本上以離散形式存在,難以有效利用這些離散的數據來反應在時間和空間維度中都連續的被監測對象的真實情況。另一方面,不同類型的傳感器數據難以實現跨通道通信,然而對跨通道傳感應用范圍需求較為廣泛,例如在醫療領域的應用中,癌癥的過高熱治療(Hyperthermia),通過溫度傳感來預測癌細胞殺傷量;在建筑中,結構檢測通過PH值和濕度傳感器,來預測腐蝕情況。實現這些仍然非常困難。因此,有必要提出一種數據的多維映射方法,解決一維傳感器數據無法提供關于被監測對象的全面且豐富的信息的技術問題。
上述內容僅用于輔助理解本發明的技術方案,并不代表承認上述內容是現有技術。
發明內容
本發明的主要目的在于提供一種數據的多維映射方法、裝置及計算機可讀存儲介質,旨在解決一維傳感器數據無法提供關于被監測對象的全面且豐富的信息的技術問題。
為實現上述目的,本發明提供一種數據的多維映射方法,所述數據的多維映射方法包括以下步驟:
基于物理引擎生成的仿真數據訓練多維映射系統中的生成網絡;
獲取一維傳感器數據和條件類別標簽,以所述一維傳感器數據和條件類別標簽作為生成網絡的輸入,得到多維傳感器數據;
對所述多維傳感器數據進行多維建模與可視化分析,得到所述多維傳感器數據對應的相關被監測對象信息。
優選地,所述基于物理引擎生成的仿真數據訓練多維映射系統中的生成網絡的步驟包括:
建立多維映射系統數據庫,標記所述多維映射數據庫中的數據;
構建生成網絡,通過多維映射系統數據庫中的數據訓練所述生成網絡。
優選地,所述建立多維映射系統數據庫,標記所述多維映射數據庫中的數據的步驟包括:
通過物理引擎對被監測設備進行仿真,收集一維傳感器數據和多維仿真數;
對所述一維傳感器數據和多維仿真數據進行分類與標注,以使每份數據具有唯一與之對應的條件類別標簽。
優選地,其特征在于,所述構建生成網絡,通過多維映射系統數據庫中的數據訓練所述生成網絡的步驟包括:
以條件類別標簽和被監測對象初始狀態作為生成網絡的輸入值,獲取生成網絡的輸出值;
結合多維映射系統數據庫生成的地面真值,將所述生成網絡的輸出值作為判別網絡的輸入值,以供判別網絡確定所述生成網絡的輸出值是否符合期望;
將判別網絡生成的判別結果反饋給生成網絡,不斷優化生成網絡的相關參數,以使所述生成網絡的預測能力逐漸增強。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于王智華,未經王智華許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201810255247.6/2.html,轉載請聲明來源鉆瓜專利網。





