[發明專利]光信噪比預測方法及裝置有效
| 申請號: | 202011609069.6 | 申請日: | 2020-12-30 |
| 公開(公告)號: | CN112787717B | 公開(公告)日: | 2022-03-01 |
| 發明(設計)人: | 薛道均 | 申請(專利權)人: | 武漢郵電科學研究院有限公司 |
| 主分類號: | H04B10/079 | 分類號: | H04B10/079;G06N3/08 |
| 代理公司: | 武漢智權專利代理事務所(特殊普通合伙) 42225 | 代理人: | 張凱 |
| 地址: | 430074 湖*** | 國省代碼: | 湖北;42 |
| 權利要求書: | 查看更多 | 說明書: | 查看更多 |
| 摘要: | |||
| 搜索關鍵詞: | 光信噪 預測 方法 裝置 | ||
本發明提供一種光信噪比預測方法及裝置。該方法包括:獲取多個原始特征值集合,其中,每個原始特征值集合包括單個光信噪比以及所述光信噪比對應的光信號特征值,不同原始特征值集合包括的光信噪比不同;將所述多個原始特征值集合中的每個值減去相應基準值,得到多個相對特征值集合;通過所述多個相對特征值集合對神經網絡模型進行訓練,得到目標神經網絡模型。通過本發明,對神經網絡模型進行訓練時采用的是光信號特征值變化的相對值而不是絕對值,可以有效避免各種損傷因素的干擾,從而使得訓練得到的神經網絡模型能輸出更為準確的光信噪比預測結果。
技術領域
本發明涉及光通信技術領域,尤其涉及一種光信噪比預測方法及裝置。
背景技術
隨著光纖通信系統的不斷發展,對系統的可靠性和穩定性提出了更高的要求,光性能監測變得越來越重要。光性能監測參數包括光信號功率、色度色散、偏振膜色散、光信噪比以及誤碼率等。其中,光信噪比與誤碼率直接相關,即更高的光信噪比將帶來更低的誤碼率,提高光信噪比是降低誤碼率最有效的方法。因此,光信噪比是衡量光網絡通信質量最重要的參數之一,在光纖通信系統和網絡的運營、管理和維護中發揮著極其重要的作用。目前相干光通信系統中的光信噪比監測方法主要有高階統計矩、延遲線干涉、格雷序列、斯托克斯參量等。
機器學習是使用計算機模擬或實現人類學習活動的科學,是人工智能中最前沿的研究領域之一。自20世紀80年代以來,機器學習被應用于光纖通信領域中,常見的方法有決策樹、神經網絡、支持向量機、貝葉斯分類器等。由于受到計算機運行速度和存儲容量的限制,最開始時神經網絡并沒有得到足夠的重視和研究。最近十幾年來,由于計算機運行速度和容量的急劇提升,神經網絡在光纖通信領域得到了越來越廣泛的應用。神經網絡的本質是一種運算模型,由大量的節點(或稱神經元)相互連接構成,用來模擬人腦的構造。這種模型具有從多層感知器中自主學習并提取數據特征的能力。在光性能監測的應用中,通過輸入從光信號中提取的特征值并不斷訓練,神經網絡能夠處理新的特征值數據并輸出對應的光信噪比預測值。
傳統的基于神經網絡的光信噪比預測方法一般是輸入原始信號特征值(如信號最大值、最小值等),對神經網絡進行訓練,之后通過訓練好的神經網絡對新的信號特征值進行預測并輸出相應的光信噪比。然而,由于系統中存在的各種損傷因素(如色度色散、偏振膜色散)的干擾,這種方法不一定能提供準確的預測結果。
發明內容
本發明的主要目的在于提供一種光信噪比預測方法及裝置,旨在解決現有的基于神經網絡的光信噪比預測方法的預測準確性不高的技術問題。
第一方面,本發明提供一種光信噪比預測方法,所述光信噪比預測方法包括:
獲取多個原始特征值集合,其中,每個原始特征值集合包括單個光信噪比以及所述光信噪比對應的光信號特征值,不同原始特征值集合包括的光信噪比不同;
將所述多個原始特征值集合中的每個值減去相應基準值,得到多個相對特征值集合;
通過所述多個相對特征值集合對神經網絡模型進行訓練,得到目標神經網絡模型。
可選的,在所述得到目標神經網絡模型的步驟之后,還包括:
獲取待預測光信號特征值,將所述待預測光信號特征值減去特征值基準值,得到待預測光信號相對特征值;
將所述待預測光信號相對特征值輸入所述目標神經網絡模型,獲取目標神經網絡模型基于所述待預測光信號相對特征值輸出的光信噪比相對預測值;
將所述光信噪比相對預測值加上光信噪比基準值,得到所述待預測光信號特征值對應的光信噪比預測值。
可選的,所述光信號特征值包括光信號最大值、光信號最小值、光信號平均值以及光信號標準差中的一種或多種。
該專利技術資料僅供研究查看技術是否侵權等信息,商用須獲得專利權人授權。該專利全部權利屬于武漢郵電科學研究院有限公司,未經武漢郵電科學研究院有限公司許可,擅自商用是侵權行為。如果您想購買此專利、獲得商業授權和技術合作,請聯系【客服】
本文鏈接:http://www.szxzyx.cn/pat/books/202011609069.6/2.html,轉載請聲明來源鉆瓜專利網。





