[發明專利]盡量向善的人工智能倫理實現方法、系統和機器人在審
| 申請號: | 202010513367.9 | 申請日: | 2020-06-08 |
| 公開(公告)號: | CN111860765A | 公開(公告)日: | 2020-10-30 |
| 發明(設計)人: | 朱定局 | 申請(專利權)人: | 華南師范大學 |
| 主分類號: | G06N3/04 | 分類號: | G06N3/04;G06N3/08;B25J11/00;B25J9/16 |
| 代理公司: | 廣州華進聯合專利商標代理有限公司 44224 | 代理人: | 盧曉霞 |
| 地址: | 510000 廣*** | 國省代碼: | 廣東;44 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 盡量 人工智能 倫理 實現 方法 系統 機器人 | ||
盡量向善的人工智能倫理實現方法、系統和機器人,包括:第一場景獲取步驟;第一人類識別步驟;第一裝置標記步驟;第二場景預測步驟;第一人類評價值獲取步驟;第一行為評價值獲取步驟;每一第二行為評價值獲取步驟;第二行為指令獲取步驟;第二行為指令執行步驟。上述方法、系統和機器人,通過盡量向善的方法來使得人工智能倫理規則更具人性、靈活性更強、普適性更強,能解決人工智能倫理規則遇到的人工智能倫理困境的問題,從而降低人工智能倫理風險。
技術領域
本發明涉及人工智能技術領域,特別是涉及一種盡量向善的人工智能倫理實現方法、系統和機器人。
背景技術
在實現本發明過程中,發明人發現現有技術中至少存在如下問題:現有的人工智能倫理規則,例如機器人三定律中的規則過于刻板、缺乏人性、沒有任何彈性,規定機器人必須完全遵循所有倫理規則,但有時會存在無法完全遵循人工智能倫理規則的情況,例如存在人工智能倫理困境的那些情形,例如左右都是人,人工智能無人車必須要撞一邊,那不管撞哪邊都違背了機器人三定律,可見,現在的人工智能倫理規則在很多特殊情況下往往無法適用。
因此,現有技術還有待于改進和發展。
發明內容
基于此,有必要針對現有技術的缺陷或不足,提供盡量向善的人工智能倫理實現方法、系統和機器人,以解決人工智能倫理規則遇到的人工智能倫理困境的問題,通過盡量向善的方法來使得人工智能倫理規則更具人性、靈活性更強、普適性更強,而且可以降低人工智能倫理風險。
第一方面,本發明實施例提供一種人工智能方法,所述方法包括:
第一場景獲取步驟:獲取事件場景,作為第一事件場景;
第一人類識別步驟:識別所述第一事件場景中的人類,作為第一人類;
第一裝置標記步驟:將所述第一事件場景中的人工智能裝置,作為第一人工智能裝置;
第二場景預測步驟:預測所述第一人工智能裝置在所述第一事件場景中執行的第一行為指令以及執行所述第一行為指令后的事件場景,作為第二事件場景;
第一人類評價值獲取步驟:獲取所述第一人類的信息,獲取所述第一人類為盡量不傷害人類的人類的評價值,作為所述第一人類的評價值;
第一行為評價值獲取步驟:獲取所述第一事件場景中所述第一人工智能裝置盡量不傷害所述第一人類或所述第一人工智能裝置盡量阻止其他對象傷害所述第一人類的行為的評價值,作為第一行為評價值;
每一第二行為評價值獲取步驟:獲取每一所述第二事件場景中所述第一人工智能裝置盡量不傷害所述第一人類或所述第一人工智能裝置盡量阻止其他對象傷害所述第一人類的行為的評價值,作為每一第二行為評價值;
第二行為指令獲取步驟:獲取最大的第二行為評價值對應的第二事件場景對應的第一行為指令,作為第二行為指令;
第二行為指令執行步驟:若所述最大的第二行為評價值大于所述第一行為評價值,則控制或調用所述第一人工智能裝置在所述第一事件場景中執行所述第二行為指令。
優選地,所述方法還包括:
第三行為評價值獲取步驟:獲取所述第一事件場景中所述第一人工智能裝置聽從所述第一人類命令的行為的評價值,作為第三行為評價值;
每一第四行為評價值獲取步驟:獲取每一所述第二事件場景中所述第一人工智能裝置聽從所述第一人類命令的行為的評價值,作為每一第四行為評價值;
第五行為評價值獲取步驟:獲取大于所述第三行為評價值的每一第四行為評價值,作為每一第五行為評價值;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于華南師范大學,未經華南師范大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010513367.9/2.html,轉載請聲明來源鉆瓜專利網。





