次のセクションでは、ファイバー テストにおける一般的な問題の詳細な分析を提供します。
(1) ファイバー テストに合格しても、ネットワーク動作中にパケットが失われるのはなぜですか?
規格の選択において、多くのユーザーは、テスト対象のファイバーが 50μm であるか 62.5μm であるかにほとんど注意を払わないなど、明らかな間違いを犯します。
2 つの開口を持つファイバーの最大損失値に対する要件は比較的大きいです。光ケーブルの試験規格の選択を誤ると、判定閾値の変更に直結します。たとえば、実際に測定されたリンクが 50μm ファイバで、選択されたテスト標準が 62.5μm で、アプリケーションが 100Base-FX である場合、テスト結果が 10dB であると仮定すると、テスターは PASS 結果を取得し、実際の状況は次のようになります。 unqualified 判定閾値 6.3dB を超えているため。
これで前の質問の答えが得られ、テストは成功しましたが、それでもデータがパケットを失うのはなぜでしょうか。
(2) 10 ギガビット規格を通過しているにもかかわらず、10 ギガビット速度がまだサポートされていないのはなぜですか?
ネットワークのバックボーンをアップグレードするそのようなユーザーがいます。彼らはモジュールをアップグレードしますスイッチそしてサーバー。もちろん、ネットワーク内のファイバーの損失もテストします。方法としては問題ないようです。ファイバーは 10 ギガビット ネットワークの要件を満たすことがテストされています。 , 損失は基準値を下回っていますが、実際の運用効果はまだ理想的なものではありません。
分析の理由は主に、光ファイバー ケーブルのモード帯域幅が考慮されていないためです。さまざまな光ファイバー ケーブルのモード帯域幅は、特定の距離内で提供できる最大帯域幅を表します。モード帯域幅が大きいほど、特定の距離内での伝送速度が向上します。これらは初期に導入されました。一般に、モード帯域幅は比較的低く、160 未満です。その結果、距離が長くなると速度を上げることができなくなりますが、現時点では損失は許容可能です。
(3) テスト損失は規格内であり、モード帯域幅も問題ありません。実際の運用で問題が発生するのはなぜですか?
テストではまだ誤解があります。損失が発生しない限り、ファイバーは問題ないと考えられますが、実際はそうではありません。このような状況を想定して、標準設計ではリンク損失を 2.6dB にする必要があります。アダプタ ヘッドの損失は 0.75dB を超えていますが、合計リンク損失は依然として 2.6dB 未満です。このとき、単に損失をテストするだけではアダプターの問題が見つからない可能性がありますが、実際のネットワーク使用ではアダプターの問題が原因である可能性があります。その結果、伝送ビット誤り率が大幅に増加します。