もっと詳しく

AMDからの本日の発表に続いて、カバーすべき技術的根拠はたくさんあります。 GenoaとBergamo、3D V-Cacheを搭載したMilan-X、およびInstinct MI200 MCM(マルチチップモジュール)GPUは別として、これらすべてのテクノロジーの岐路に立つ要素が1つあります。それは、バージョン3.0のAMDのInfinity Fabricです。 本日導入されたAMDは、2020年3月に新しい接続スキームを最初に導入して以来、劇的に進化し続けています。

多くの点で、AMDのInfinity Fabricは、AMDのHeterogeneous System Architecture(HSA)システムの夢を拡張したものです。 現在、AMDのCPUおよびGPUソリューションのチップ内およびチップ間通信を強化します。 Infinity Architectureソリューションであると説明できる特異なテクノロジーはありません。 この名前は、AMDの最新製品で採用されているいくつかの相互接続テクノロジーを集約し、システムパフォーマンス(特にHPCパフォーマンス)を飛躍的に向上させることを目的としたコヒーレントCPU + GPUテクノロジーに至ります。

Infinity Fabric 3.0は、2008年にさかのぼる「The Future is Fusion」マーケティングキャンペーンで、AMDが未来を夢見ていたことを先導します。これにより、会社のCPUソリューションとGPUソリューション間の相互接続とリソース共有のための一貫した通信バスがもたらされ、パフォーマンスが向上し、低レイテンシ、低消費電力。

考え方は単純です:データの移動には計算コストがかかります。 したがって、Infinity Architectureは、ストレージバンク(VRAM、システムRAM、またはCPUキャッシュ)間のデータ移動を可能な限り減らすように設計されます。 ハードウェアパズルのすべてのピースが、どの情報がどこにあるかを認識し、「必要に応じて」アクセスできる場合、パフォーマンスが大幅に向上します。

AMDのInfinity Architecture 3.0は、考えられるほぼすべての方法でInfinity Fabricテクノロジーに基づいて構築されます。前世代のInfinity Fabricアーキテクチャでは、CPUとGPU間の通信をPCIeバス経由で(非コヒーレントに)実行する必要がありました。つまり、理論上のピーク帯域幅はそのリンクの制限(PCIe4.0では16GT / s)までスケールアップします。また、デュアルソケットシステムのPCIe相互接続GPUの最大数を4枚のグラフィックカードに制限しました。ただし、新しいInfinity Architectureでは、通信全体をInfinity Fabric 3.0リンク経由で実行できます。つまり、必要に応じてリンクにPCIeへのフォールバックがありますが、PCIeの非コヒーレント通信はありません。

さらに、Infinity Fabricを使用して、MI250Xにある2つのGPUダイ間で400 GB / sの双方向リンクを有効にし、最初の製品化されたマルチチップGPUを有効にします。

新しく改良されたInfinity Architectureは、実際には、デュアルソケットEpyc CPUシステム間のコヒーレント通信チャネルを可能にするだけでなく、同時GPU接続の最大数を4から8に増やします。グラフィックカードが相互に通信する速度も大幅に改善されました。Infinity Architectureでは、各Infinity Fabricリンク全体で100GB / sの帯域幅が可能になり、最大2つのEPYC CPUと8つのGPUアクセラレータを含むシステム全体に供給するのに十分なスループットが提供されます。