[發(fā)明專利]一種基于深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉圖像質(zhì)量預(yù)測的方法在審
| 申請?zhí)枺?/td> | 201710779809.2 | 申請日: | 2017-09-01 |
| 公開(公告)號: | CN107704806A | 公開(公告)日: | 2018-02-16 |
| 發(fā)明(設(shè)計)人: | 夏春秋 | 申請(專利權(quán))人: | 深圳市唯特視科技有限公司 |
| 主分類號: | G06K9/00 | 分類號: | G06K9/00;G06K9/62;G06N3/04 |
| 代理公司: | 暫無信息 | 代理人: | 暫無信息 |
| 地址: | 518057 廣東省深圳市高新技術(shù)產(chǎn)業(yè)園*** | 國省代碼: | 廣東;44 |
| 權(quán)利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關(guān)鍵詞: | 一種 基于 深度 卷積 神經(jīng)網(wǎng)絡(luò) 進(jìn)行 圖像 質(zhì)量 預(yù)測 方法 | ||
1.一種基于深度卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行人臉圖像質(zhì)量預(yù)測的方法,其特征在于,主要包括人臉圖像質(zhì)量預(yù)測模型(一);人臉圖像質(zhì)量標(biāo)簽(二);自動預(yù)測人臉圖像質(zhì)量(三)。
2.基于權(quán)利要求書1所述的人臉圖像質(zhì)量預(yù)測模型(一),其特征在于,使用深度卷積神經(jīng)網(wǎng)絡(luò)(ConvNet)訓(xùn)練支持向量回歸模型,提取面部特征用于預(yù)測面部圖像質(zhì)量,建立一個無約束面部圖像的大型數(shù)據(jù)庫,目標(biāo)圖像質(zhì)量值定義為面部匹配器的人均質(zhì)量評分或基于分?jǐn)?shù)的值,使用深度ConvNet提取圖像特征,并采用支持向量回歸模型(SVR)從卷積網(wǎng)絡(luò)提取的特征中預(yù)測人臉圖像質(zhì)量,目標(biāo)圖像質(zhì)量值是連續(xù)的,并允許面部圖像基于質(zhì)量進(jìn)行排序。
3.基于權(quán)利要求書1所述的人臉圖像質(zhì)量標(biāo)簽(二),其特征在于,通過比較成對的面部圖像進(jìn)行聚類,并通過矩陣求解,推導(dǎo)出完整的質(zhì)量等級,收集大面積無約束面部圖像數(shù)據(jù)庫的人臉圖像質(zhì)量評價,由于生物識別和計算機(jī)視覺在訓(xùn)練一組標(biāo)簽數(shù)據(jù)時,主要依靠監(jiān)督學(xué)習(xí)技術(shù),建立面部圖像目標(biāo)質(zhì)量標(biāo)簽的方法包括:1)將測量的各種圖像質(zhì)量因子結(jié)合成單個值,表示整體面部質(zhì)量;2)人工注釋觀察到的圖像質(zhì)量;3)采用自動面部識別匹配器結(jié)果進(jìn)行比較,由于方法1)不能取得有效的結(jié)果,采用2)和3)來提取人臉圖像質(zhì)量標(biāo)簽,考慮到需要收集成對的人臉比較,為了獲得獨(dú)立面部圖像的絕對質(zhì)量評級,利用矩陣求解方法從成對圖像比較中推斷質(zhì)量評估矩陣。
4.基于權(quán)利要求書3所述的人臉圖像質(zhì)量,其特征在于,采用眾包的方式進(jìn)行人臉圖像質(zhì)量比較,通過眾包平臺來收集194位評估者評估的成對臉部圖像質(zhì)量,給定一對并排顯示的人臉圖像,評估者通過選擇以下選項對兩個圖像質(zhì)量給出評定:(i)左圖質(zhì)量比較好ii)左圖質(zhì)量更好,(iii)兩面相似,(iv)右圖比較好,(v)右圖質(zhì)量更好,要求每個評估者提供1001對面部圖像比較的結(jié)果,其由6個指導(dǎo)對,974個隨機(jī)對和21個一致性檢查對組成,從包含13233個人臉圖像的數(shù)據(jù)庫中預(yù)先選擇指導(dǎo)對,指導(dǎo)對中其中一個圖像的質(zhì)量要明顯優(yōu)于另一個圖像的質(zhì)量,從數(shù)據(jù)庫中隨機(jī)選擇974對圖像,再從974組中選出最后的21對圖像,作為一致性測試圖像。
5.基于權(quán)利要求書3所述的質(zhì)量評估矩陣,其特征在于,收集來自194名評估者標(biāo)注的成對面部圖像質(zhì)量比較的隨機(jī)集合,在整個數(shù)據(jù)庫中推測出每個評估者的質(zhì)量評級標(biāo)準(zhǔn):即面部圖像質(zhì)量評估者等級矩陣,其中n是評估者的數(shù)量,m是面部圖像的數(shù)量,實驗表明,收集評估者的974個隨機(jī)圖像對就足以完成矩陣,為了獲得數(shù)據(jù)庫中單個面部圖像的單一質(zhì)量評級,采用中位數(shù)計算最佳質(zhì)量等級。
6.基于權(quán)利要求書3所述的圖像質(zhì)量,其特征在于,從相似度評分獲取的目標(biāo)質(zhì)量標(biāo)簽作為自動識別性能的質(zhì)量測量標(biāo)準(zhǔn),目標(biāo)i的第j個樣本標(biāo)準(zhǔn)化比較分?jǐn)?shù),定義為:
其中是實際得分,是平均值,是標(biāo)準(zhǔn)偏差,在給定圖像中直接預(yù)測zij以獲得面部圖像質(zhì)量的連續(xù)測量值,手動選擇數(shù)據(jù)庫中質(zhì)量最好的1680個主題的圖像,并使用至少兩張臉部圖像,質(zhì)量最好的圖像放置在圖庫中,而其余圖像用作測試組,數(shù)據(jù)庫中附加的圖像用于擴(kuò)展圖庫的大小,其中標(biāo)準(zhǔn)化比較分?jǐn)?shù)zij,由公式(1)在每個面部匹配器中進(jìn)行計算,并作為基于評分的學(xué)習(xí)面部質(zhì)量預(yù)測器的目標(biāo)面部質(zhì)量值。
該專利技術(shù)資料僅供研究查看技術(shù)是否侵權(quán)等信息,商用須獲得專利權(quán)人授權(quán)。該專利全部權(quán)利屬于深圳市唯特視科技有限公司,未經(jīng)深圳市唯特視科技有限公司許可,擅自商用是侵權(quán)行為。如果您想購買此專利、獲得商業(yè)授權(quán)和技術(shù)合作,請聯(lián)系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201710779809.2/1.html,轉(zhuǎn)載請聲明來源鉆瓜專利網(wǎng)。
- 同類專利
- 專利分類
G06K 數(shù)據(jù)識別;數(shù)據(jù)表示;記錄載體;記錄載體的處理
G06K9-00 用于閱讀或識別印刷或書寫字符或者用于識別圖形,例如,指紋的方法或裝置
G06K9-03 .錯誤的檢測或校正,例如,用重復(fù)掃描圖形的方法
G06K9-18 .應(yīng)用具有附加代碼標(biāo)記或含有代碼標(biāo)記的打印字符的,例如,由不同形狀的各個筆畫組成的,而且每個筆畫表示不同的代碼值的字符
G06K9-20 .圖像捕獲
G06K9-36 .圖像預(yù)處理,即無須判定關(guān)于圖像的同一性而進(jìn)行的圖像信息處理
G06K9-60 .圖像捕獲和多種預(yù)處理作用的組合
- 卷積運(yùn)算處理方法及相關(guān)產(chǎn)品
- 一種卷積神經(jīng)網(wǎng)絡(luò)的計算方法及系統(tǒng)
- 卷積運(yùn)算方法及系統(tǒng)
- 卷積運(yùn)算方法、裝置及系統(tǒng)
- 深度神經(jīng)網(wǎng)絡(luò)裁剪方法、裝置及電子設(shè)備
- 基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法和圖像處理裝置
- 卷積神經(jīng)網(wǎng)絡(luò)及基于卷積神經(jīng)網(wǎng)絡(luò)的圖像處理方法
- 一種圖像處理方法、裝置以及計算機(jī)存儲介質(zhì)
- 用于卷積神經(jīng)網(wǎng)絡(luò)的卷積運(yùn)算裝置
- 基于FPGA實現(xiàn)圖像識別的方法、裝置、設(shè)備及存儲介質(zhì)
- 硬件神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換方法、計算裝置、軟硬件協(xié)作系統(tǒng)
- 生成較大神經(jīng)網(wǎng)絡(luò)
- 神經(jīng)網(wǎng)絡(luò)的生成方法、生成裝置和電子設(shè)備
- 一種舌診方法、裝置、計算設(shè)備及計算機(jī)存儲介質(zhì)
- 學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)
- 脈沖神經(jīng)網(wǎng)絡(luò)轉(zhuǎn)換方法及相關(guān)轉(zhuǎn)換芯片
- 圖像處理方法、裝置、可讀存儲介質(zhì)和計算機(jī)設(shè)備
- 一種適應(yīng)目標(biāo)數(shù)據(jù)集的網(wǎng)絡(luò)模型微調(diào)方法、系統(tǒng)、終端和存儲介質(zhì)
- 用于重構(gòu)人工神經(jīng)網(wǎng)絡(luò)的處理器及其操作方法、電氣設(shè)備
- 一種圖像神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)的優(yōu)化方法及裝置





