[發(fā)明專利]機器模擬待模擬目標學習和工作的人工智能方法及系統(tǒng)在審
| 申請?zhí)枺?/td> | 202010027845.5 | 申請日: | 2020-01-10 |
| 公開(公告)號: | CN111260075A | 公開(公告)日: | 2020-06-09 |
| 發(fā)明(設計)人: | 葉奕宏 | 申請(專利權)人: | 廈門驛全智能科技有限公司 |
| 主分類號: | G06N20/00 | 分類號: | G06N20/00;G06K9/00;G10L15/26;G10L15/18;G10L13/04;H04L29/08 |
| 代理公司: | 北京天盾知識產(chǎn)權代理有限公司 11421 | 代理人: | 趙桂芳 |
| 地址: | 361001 福建省廈門市軟*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 機器 模擬 目標 學習 工作 人工智能 方法 系統(tǒng) | ||
1.一種機器模擬待模擬目標學習和工作的人工智能方法,其特征在于,所述機器模擬待模擬目標學習和工作的人工智能方法包括以下步驟:
步驟一,通過訓練程序初始化原始的深度神經(jīng)網(wǎng)絡;分別獲取不同時間、不同地點或相同地點、不同景物或相同景物、以及不同待模擬目標或相同待模擬目標狀態(tài)下的視頻圖像數(shù)據(jù)和音頻數(shù)據(jù);
步驟二,對步驟一所述視頻圖像數(shù)據(jù)進行目標識別,將識別出的目標實體轉(zhuǎn)換為文字;
步驟三,對步驟一所述音頻數(shù)據(jù)進行語音識別,區(qū)分主體聲音和客體聲音并轉(zhuǎn)換為文字,所述主體聲音為佩戴者聲音,所述客體聲音為所述佩帶著以外的聲音;
步驟四,按照時間順序,將所述客體聲音對應的文字以及所述視頻圖像數(shù)據(jù)對應的文字作為輸入,將所述主體聲音作為輸出,放入所述深度神經(jīng)網(wǎng)絡中進行訓練直至深度神經(jīng)網(wǎng)絡收斂,將收斂后的深度神經(jīng)網(wǎng)絡作為待模擬目標思維模擬系統(tǒng)使用;
步驟五,將新的視頻圖像數(shù)據(jù)或音頻數(shù)據(jù)轉(zhuǎn)換為相應文本輸入所述待模擬目標思維模擬系統(tǒng),輸出文本信息作為所模擬的待模擬目標思維產(chǎn)生的結(jié)果;
步驟六,對步驟五輸入的待模擬目標思維模擬系統(tǒng)文本信息通過構(gòu)建程序建立計算機類腦知識庫,包括詞庫、類庫、資源庫、智能信息管理庫;
步驟七,計算機將自然語言語句中表示語法成分的詞語及詞性讀入或添加到詞庫,然后調(diào)用語義分析器將由自然語言單句生成的類基本元素和語義性質(zhì)以類的方法創(chuàng)建并存儲于類庫,同時將與類基本元素和語義性質(zhì)對應的場景進行配置并存儲于資源庫;
步驟八,計算機基于類庫中的智能知識元素,針對智能應用需求調(diào)用語義分析器,將由自然語言單句、復句或語句集來滿足應用需求的自然語言程序生成智能應用程序,并存儲于智能信息管理庫;
步驟九,調(diào)用步驟八智能信息管理庫存儲的信息,構(gòu)建多層機器擬人行為路徑規(guī)劃框架,基于人類規(guī)劃的行為模式,模擬待模擬目標、人眼和人腿的功能對應設置機器全局層路徑規(guī)劃、感知層路徑規(guī)劃和執(zhí)行層路徑規(guī)劃;
步驟十,建立完備性可調(diào)性軌跡規(guī)劃算法,應用所述算法規(guī)劃的軌跡能夠同時滿足機器人的運動學約束和環(huán)境約束條件;
步驟十一,建立動態(tài)監(jiān)控和恢復行為策略,對機器人前方安全距離范圍進行實時動態(tài)監(jiān)控,如果遇到緊急狀況采取恢復行為策略。
2.如權利要求1所述機器模擬待模擬目標學習和工作的人工智能方法,其特征在于,步驟一之前,需進行:步驟I,通過數(shù)據(jù)采集裝置采集學習和工作的數(shù)據(jù)信息;
步驟II,通過主控芯片控制識別程序?qū)Σ杉臄?shù)據(jù)進行識別;
步驟III,通過數(shù)據(jù)分析程序?qū)ψR別后的的數(shù)據(jù)進行分析。
3.如權利要求1所述的機器模擬待模擬目標學習和工作的人工智能方法,其特征在于,步驟一中,采用攝像頭拍攝在不同時間、不同地點或相同地點、不同景物或相同景物、以及不同待模擬目標或相同待模擬目標狀態(tài)下的視頻圖像數(shù)據(jù);
采用麥克風收集不同時間、不同地點或相同地點、不同景物或相同景物、以及不同待模擬目標或相同待模擬目標狀態(tài)下的聲音數(shù)據(jù),所述聲音數(shù)據(jù)與所述視頻圖像數(shù)據(jù)同步;
步驟四中,按照時間順序,將所述客體聲音對應的文字以及所述視頻圖像數(shù)據(jù)對應的文字作為輸入,將所述主體聲音作為輸出,放入所述深度神經(jīng)網(wǎng)絡中采用梯度下降法、牛頓算法、共軛梯度法、準牛頓法或Levenberg-Marquardt算法進行訓練直至深度神經(jīng)網(wǎng)絡收斂,將收斂后的深度神經(jīng)網(wǎng)絡作為待模擬目標思維模擬系統(tǒng)使用。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廈門驛全智能科技有限公司,未經(jīng)廈門驛全智能科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業(yè)授權和技術合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010027845.5/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。





