[發明專利]敏感預測模型的訓練方法、人臉圖像處理方法及設備在審
| 申請號: | 202210350011.7 | 申請日: | 2022-04-02 |
| 公開(公告)號: | CN114663417A | 公開(公告)日: | 2022-06-24 |
| 發明(設計)人: | 齊子銘;劉興云;李志陽 | 申請(專利權)人: | 廈門美圖宜膚科技有限公司 |
| 主分類號: | G06T7/00 | 分類號: | G06T7/00;G06V10/22;G06V10/82;G06N3/04;G06N3/08 |
| 代理公司: | 北京超凡宏宇專利代理事務所(特殊普通合伙) 11463 | 代理人: | 曹瑞敏 |
| 地址: | 361100 福建省廈門市翔安區*** | 國省代碼: | 福建;35 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 敏感 預測 模型 訓練 方法 圖像 處理 設備 | ||
本申請提供一種敏感預測模型的訓練方法、人臉圖像處理方法及設備,涉及計算機圖像處理技術領域。該敏感預測模型的訓練方法包括:首先采用圖像生成器對每個樣本人臉圖像對應的多通道圖像進行處理,得到每個樣本人臉圖像對應的樣本敏感預測圖像;其次采用圖像判別器,對每個樣本人臉圖像對應的樣本敏感預測圖像和每個樣本人臉圖像進行處理,得到圖像生成器的敏感預測準確度。通過調整圖像生成器的參數,重新基于參數調整后的圖像生成器進行模型訓練,直至圖像判別器得到的敏感預測準確度滿足預設條件,完成訓練。本申請訓練得到的敏感預測模型能夠基于用戶當下的皮膚狀態,對面部敏感度變化做出預測,精準的、科學的輸出敏感度預測的結果圖。
技術領域
本發明涉及圖像處理技術領域,具體而言,涉及一種敏感預測模型的訓練方法、人臉圖像處理方法及設備。
背景技術
近年來,受敏感性皮膚困擾的用戶數日漸增長,目前常見的皮膚敏感區域檢測方法可以根據用戶當下的皮膚狀態,并加以分析,再給出當前狀態的多維度皮膚分析檢測報告,或者根據年齡變化,在用戶人臉區域,用貼圖的方式,模擬皮膚的松弛程度、皺紋程度的變化趨勢。
但是目前的皮膚敏感區域檢測方法,沒有在分析用戶當前皮膚狀況的基礎上,進一步科學且個性化的預測出皮膚敏感區域變化趨勢的方法,在學術界也沒有提出相應的解決方案。
發明內容
本發明的目的在于,針對上述現有技術中的不足,提供一種敏感預測模型的訓練方法、人臉圖像處理方法及設備,以便實現對皮膚敏感區域的科學預測。
為實現上述目的,本申請實施例采用的技術方案如下:
第一方面,本申請實施例提供了一種敏感預測模型的訓練方法,所述敏感預測模型包括:圖像生成器以及圖像判別器,所述訓練方法包括:
獲取多個樣本人臉圖像,以及所述多個樣本人臉圖像對應的紅光圖;
對所述多個樣本人臉圖像進行處理,得到所述多個樣本人臉圖像對應的無敏感區域圖像;
采用預設敏感區域分析算法,分別對所述多個樣本人臉圖像對應的紅光圖進行處理,得到所述多個樣本人臉圖像對應的樣本敏感區域掩膜圖像;
將每個樣本人臉圖像對應的無敏感區域圖像、所述每個樣本人臉圖像對應的樣本敏感區域掩膜圖像進行合并,得到所述每個樣本人臉圖像對應的多通道圖像;
采用所述圖像生成器對所述每個樣本人臉圖像對應的多通道圖像進行處理,得到所述每個樣本人臉圖像對應的樣本敏感預測圖像;
采用所述圖像判別器,對所述每個樣本人臉圖像對應的樣本敏感預測圖像和所述每個樣本人臉圖像進行處理,得到所述圖像生成器的敏感預測準確度;
調整所述圖像生成器的參數,重新基于參數調整后的所述圖像生成器進行模型訓練,直至所述圖像判別器得到的敏感預測準確度滿足預設條件。
可選的,所述采用預設敏感區域分析算法,分別對所述多個樣本人臉圖像對應的紅光圖進行處理,得到所述多個樣本人臉圖像對應的樣本敏感區域掩膜圖像,包括:
采用所述預設敏感區域分析算法,分析所述多個樣本人臉圖像對應的紅光圖中每個像素點在多個顏色通道的像素值,并根據所述每個像素點在多個顏色通道的像素值,確定所述每個像素點為敏感像素點還是非敏感像素點;
對所述多個樣本人臉圖像對應的紅光圖中的敏感像素點和非敏感像素點的像素值進行賦值,得到所述多個樣本人臉圖像對應的樣本敏感區域掩膜圖像。
可選的,所述根據所述每個像素點在多個顏色通道的像素值,確定所述每個像素點為敏感像素點還是非敏感像素點,包括:
計算所述每個像素點在紅光通道的像素值和其在藍光通道的像素值的第一比值;
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于廈門美圖宜膚科技有限公司,未經廈門美圖宜膚科技有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202210350011.7/2.html,轉載請聲明來源鉆瓜專利網。





