NvidiaとIntelは、新しいMLPerf 3.1ベンチマークで新たなLLMトレーニング速度の記録を主張しています。

VentureBeat 2023/11/9 02:00:00(JST)

2023年のMLPerf Training 3.1ベンチマークの結果によると、AIモデルのトレーニングは非常に高速化されています。MLCommonsは、AIの開発を加速させるためのMLベンチマーク、データセット、ベストプラクティスに焦点を当てたオープンなエンジニアリングコンソーシアムです。19のベンダーが参加し、200以上のパフォーマンス結果が生成されました。特に大規模言語モデル(LLM)のトレーニングに関する結果が注目されており、前回のベンチマークと比較して約3倍のパフォーマンス向上が見られました。AIのトレーニングの性能向上は、ハードウェアアーキテクチャとソフトウェアのスケーリングが予想を上回っているとされています。


Intel、Nvidia、Googleは、MLPerf Training 3.1ベンチマークで高速なLLMトレーニング結果を達成しました。Intelは、Habana Gaudi 2アクセラレータを使用して、8ビット浮動小数点(FP8)データ型を含むさまざまな技術を組み合わせて、トレーニング速度を103%向上させました。GoogleもFP8を使用してトレーニング性能を最大限に引き出しており、Cloud TPU v5eを活用しています。Nvidiaも独自のスーパーコンピュータEOSを使用し、GPT-3モデルに基づくLLMトレーニングの結果が前回のベンチマークと比較して2.8倍高速化されたことを報告しています。


これらの結果は、AIのトレーニングにおける性能向上が予想を上回っていることを示しており、AIコンピューティングの規模も非常に大きくなっています。MLPerfは、AI業界全体の進歩を示すバロメーターとなっています。ハードウェアアーキテクチャとソフトウェアの改善により、AIのトレーニング性能が飛躍的に向上しています。

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Nvidia, Intel claim new LLM training speed records in new MLPerf 3.1 benchmark.