お問い合わせ
成長するChatGPTは、光ファイバートランシーバー市場にどのような影響を与えますか?
リソース

成長するChatGPTは、光ファイバートランシーバー市場にどのような影響を与えますか?


高性能サーバーとGPUの需要は、当初、Chat GPTによって引き起こされました。 今年以来、ハードウェアの計算能力の25% がアクセスの処理に使用され、残りの75% はモデルのトレーニングに使用されています。 これは、1日のアクセス量が現時点で数千万から数十億バイトに過ぎないという事実によるものです。 翌年、アクセス量が数億に増加することは不可能ではありません。 このシナリオでは、コンピューティングパワーのトレーニングに対するアクセスコンピューティングパワーの比率が逆になり、データセンターへの投資も増加します。

過去の投資経験データによると、データセンターに投資された約100億米ドルごとに、60億米ドルがプラント、電力設備、および空調に使用されます。残りの40億米ドルは次のように分割されます。16% がデータセンターの相互接続に使用されます。 77% はサーバーの購入に使用されます。4% はスイッチの購入に使用されます。3% は光ファイバートランシーバーの購入に使用されます。

計算の前に、データセンターのアーキテクチャと計算の仮定を説明する必要があります。 リーフ・スパイン構造は、現在のデータ・センター・アーキテクチャで使用されている。 サーバー、トップオブラックスイッチ、リーフスイッチ、スパインスイッチは、最低から最高への昇順のレベルです。 この構造内には3つのレベルのデータ交換があります。 サーバー上の光ファイバートランシーバーはすべて短い距離 (100m未満) と低いレート (100G未満) であるため、サーバーに近いほど、交換できるデータの量は少なくなります。

ブランチは非常に高い帯域幅を持っているので、フローアグリゲーションにあるスイッチで同じ帯域幅のレートを持つ必要はありません。そのため、サーバーに近い400Gや800Gのような高速光ファイバートランシーバーを使用することはできません。

1つのキャビネットには24台のサーバーがあり、それぞれに4つのアップリンクインターフェイスがあり、すべて50Gまたは100G100mを使用してToRスイッチに接続します。 ToRアップリンクおよびダウンリンクポートは、ToRスイッチからリーフスイッチまで1:6の比率で配布されます。 16のアップリンクポートでは、96のダウンリンクポートがある。 アップリンクとして、400G 100mファイバー光トランシーバを利用しています。 400G/800G 500mファイバー光トランシーバを使用すると、リーフスイッチのアップリンクとダウンリンクポートの比率は1:6で、48のダウンリンクポートと8つのアップリンクポートがあります。 スパインスイッチに400G/800G 500m/2km光ファイバートランシーバーを使用して64ダウンリンクポート。

オペレーターが異なれば、データセンターのアーキテクチャも異なります。データセンターの設計図にアクセスせずに、光ファイバートランシーバーの需要を正確に予測することは不可能です。 概して、サーバよりも多くのファイバ光トランシーバが存在するが、この差は常に当てはまるわけではない。

最新ニュース & ブログ
おすすめ商品
We use cookies to offer you a better browsing experience, analyze site traffic and personalize content. By using this site, you agree to our use of cookies. Privacy Policy
Reject Accept