[發明專利]一種基于觀測矩陣變換維度的圖像分類方法有效
| 申請號: | 201811473410.2 | 申請日: | 2018-12-04 |
| 公開(公告)號: | CN109657707B | 公開(公告)日: | 2020-12-25 |
| 發明(設計)人: | 葉心汝;王勇 | 申請(專利權)人: | 浙江大學 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62 |
| 代理公司: | 杭州天勤知識產權代理有限公司 33224 | 代理人: | 胡紅娟 |
| 地址: | 310013 浙江*** | 國省代碼: | 浙江;33 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 一種 基于 觀測 矩陣 變換 維度 圖像 分類 方法 | ||
本發明公開了一種基于觀測矩陣變換維度的圖像分類方法,包括:使用感知壓縮對圖像進行稀疏編碼,得到低維度圖像組成的數據集,將包含標簽標注的數據集劃分為訓練集和測試集;構建包括輸入層、隱含層與輸出層的圖像分類網絡,所述隱含層為感知機單元;所述圖像分類網絡至少為兩個,分別包含不同節點數感知機單元;將訓練集作為輸入,在標簽的監督下進行訓練,得到訓練完成后對應的神經網絡圖像分類模型;使用測試集驗證神經網絡圖像分類模型對圖像分類的準確率,選擇準確率最高的作為最終的神經網絡圖像分類模型;將待測圖像輸入,輸出圖像分類結果的預測概率。本發明提供的圖像分類方法可以在不降低圖像分類精度的條件下大大提升模型效率。
技術領域
本發明屬于圖像分類的技術領域,特別涉及一種基于觀測矩陣變換維度的圖像分類方法。
背景技術
圖像分類,根據各自在圖像信息中所反映的不同特征,把不同類別的目標區分開來的圖像處理方法。它利用計算機對圖像進行定量分析,把圖像或圖像中的每個像元或區域劃歸為若干個類別中的某一種,以代替人的視覺判讀。
圖像空間的分類方法—利用圖像的灰度,顏色,紋理,形狀,位置等底層特征對圖像進行分類;例如:[1]利用灰度直方圖特征對圖像進行分類;[2] 利用紋理特征對圖像進行分類;[3]采用紋理,邊緣和顏色直方圖混合特征對圖像進行分類;[1],[2],[3]均采用SVM作為分類器。[4]用矩陣表示圖像, 矩陣元素是相應象素的灰度值,然后用SVD和PCA方法抽取圖像特征,BP 網絡作為分類器。圖像空間的分類方法的共同缺點是數據量大,計算復雜性高,但分類精度一般比較理想。
特征空間的分類方法—首先將原圖像經過某種變換如K-L變換,小波變換等變換到特征空間,然后在特征空間提取圖像的高層特征以實現圖像的分類。這類分類方法尤以紋理圖像分類和遙感圖像分類最多。特征空間的分類方法可降低數據維數,降低計算復雜性,但問題相關性較強,與特征提取的方法和效果有很大關系。
傳統的數字信號采樣嚴格依照那奎斯特采樣定律,即:為了不失真地恢復模擬信號,采樣頻率應該不小于模擬信號頻譜中最高頻率的2倍。普通的信號壓縮首先對信號進行離散余弦變換或小波變換等處理,然后舍棄大量接近于0的系數,對少數絕對值較大的系數進行壓縮編碼。本質上來講,采樣和壓縮對應數據的全部采集和部分丟棄。通過全采樣后,數字信號的數據量比較大,一方面不利于存儲和傳輸,另一方面該數字信號本身存在很多冗余。而目前在圖像分類領域,隨著輸入數據與模型復雜度的增加,計算量日趨增加,模型調參訓練與使用的效率不高。
發明內容
本發明的目的在于提供一種基于觀測矩陣變換維度的圖像分類方法,應用于圖像分類任務,可以在不降低圖像分類精度的條件下大大提升模型效率。
一種基于觀測矩陣變換維度的圖像分類方法,包括以下步驟:
(1)使用感知壓縮對圖像進行稀疏編碼,感知壓縮后的圖像組成數據集,將包含標簽標注的數據集劃分為訓練集和測試集;
(2)構建包括輸入層、隱含層與輸出層的圖像分類網絡,所述隱含層為感知機單元;所述圖像分類網絡至少為兩個,分別包含不同節點數感知機單元;
(3)以步驟(1)中的訓練集作為輸入,在標簽的監督下,對步驟(2) 構建的圖像分類網絡進行訓練,得到訓練完成后對應的神經網絡圖像分類模型;
(4)使用測試集驗證神經網絡圖像分類模型對圖像分類的準確率,選擇準確率最高的神經網絡圖像分類模型作為最終的神經網絡圖像分類模型;
(5)以待測圖像作為輸入,步驟(4)得到的最終的神經網絡圖像分類模型輸出圖像分類結果的預測概率。
在步驟(1)中,感知壓縮為將高維信號投影成低維信號的過程,即,圖像實現從高維到低維的映射。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于浙江大學,未經浙江大學許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/201811473410.2/2.html,轉載請聲明來源鉆瓜專利網。





