[發明專利]使基礎分類器適應于新奇類在審
| 申請號: | 202010645476.6 | 申請日: | 2020-07-07 |
| 公開(公告)號: | CN112200210A | 公開(公告)日: | 2021-01-08 |
| 發明(設計)人: | 史夏寒;M·席格;L·薩萊夫斯基;M·韋林;Z·阿卡塔 | 申請(專利權)人: | 羅伯特·博世有限公司 |
| 主分類號: | G06K9/62 | 分類號: | G06K9/62;G06N3/04 |
| 代理公司: | 中國專利代理(香港)有限公司 72001 | 代理人: | 畢錚;申屠偉進 |
| 地址: | 德國斯*** | 國省代碼: | 暫無信息 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 基礎 分類 適應 新奇 | ||
提供了使基礎分類器適應于新奇類。公開了一種用于使基礎分類器適應于一個或多個新奇類的系統(100)?;A分類器通過使用特征提取器從實例中提取特征表示并且將其與基礎類的類表示相匹配來將實例分類成基礎類。使用用于新奇類的訓練數據來使基礎分類器適應。基于新奇類的實例的特征表示來確定新奇類的類表示。然后使新奇類和基礎類的類表示適應,其中基于基礎類的類表示使新奇類的至少一個類表示適應,并且基于新奇類的類表示使基礎類的至少一個類表示適應?;A類和新奇類的經適應的類表示與基礎分類器相關聯。
技術領域
本發明涉及用于使基礎分類器適應于一個或多個新奇類的系統以及對應的計算機實現的方法。本發明進一步涉及用于學習變換參數集合的系統以及對應的計算機實現的方法,所述變換參數集合用于使基礎分類器適應于一個或多個新奇類。本發明進一步涉及計算機可讀介質,其包括用于執行方法和/或變換參數集合的指令。
背景技術
現代機器學習技術能夠以令人印象深刻的準確程度對圖像進行分類,并且因此,圖像分類越來越多地用于諸如自主駕駛、醫學成像等現實生活應用中。然而,使用常規技術訓練的機器學習模型的質量在很大程度上取決于可用訓練數據的量。例如,可能需要每類有大量的示例來可靠地將實例分類成該類。然而,尤其在諸如自主駕駛之類的設定中,可以存在大量不同的類,例如不同的交通標志、各種其他類型的交通參與者等。此外,這樣的類的特性可以取決于機器學習模型被部署在何處,例如,交通標志因國家而異。因此,可能需要用于許多類和許多變體的大量訓練數據,這使得有效地部署這樣的機器學習模型是昂貴且復雜的。
少鏡頭學習技術旨在提供機器學習模型,所述機器學習模型可以適應于相對少的訓練示例針對其可用的新奇類。例如,用于少鏡頭學習的已知設置是向鏡頭類。在這種情況下,目的是要在每個類的給定個加標簽的示例的情況下,辨別個先前未見的新奇類。該項任務可以從元學習的角度來著手處理。不像在經典的轉移學習中,元學習的目的不是對特定的目標任務的適應,而是適應在測試時呈現的各種新任務并且跨所述各種新任務很好地執行。例如,在元學習中,可以確定用于確定向鏡頭分類器的過程參數,所述過程參數在若干次運行之內通常提供最佳結果。
在S. Gidaris和N. Komodakis的“Dynamic Few-Shot Visual Learning withoutForgetting”(在https://arxiv.org/abs/1804.09458處可獲得并且通過引用并入本文中)中,提出了一種少鏡頭視覺學習系統?;诨A類集合的訓練數據的大集合,系統的目的是要提供一種對象識別學習系統,所述對象識別學習系統能夠從這些基礎類別以及從在測試時僅為其提供幾個訓練示例的新奇類別中識別對象。通過基于卷積神經網絡的識別模型來執行對象識別,所述基于卷積神經網絡的識別模型將從輸入圖像中提取的特征向量與每個對象類別的分類權重向量進行比較。從新奇類別的訓練示例和基礎類別的分類權重向量中推斷用于新奇類別的分類權重向量。在兩個階段中訓練模型。在第一訓練階段中,學習特征提取器的參數和基礎類的分類權重向量。在第二訓練階段中,學習推斷過程的參數。
發明內容
根據本發明的第一方面,如權利要求1所限定的,提出了一種用于使基礎分類器適應于一個或多個新奇類的系統。根據本發明的另一方面,如權利要求10所限定的,提出了一種使基礎分類器適應的計算機實現的方法。根據本發明的另一個方面,如權利要求11所限定的,提出了一種用于學習變換參數集合的系統,其中變換參數集合用于使基礎分類器適應于一個或多個新奇類。根據本發明的另一方面,如權利要求14所限定的,提出了一種學習變換參數集合的計算機實現的方法。根據本發明的一方面,如權利要求15所限定的,提供了一種計算機可讀介質。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于羅伯特·博世有限公司,未經羅伯特·博世有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202010645476.6/2.html,轉載請聲明來源鉆瓜專利網。





