Super X AI Technology Limitedは、最新のフラッグシップ製品であるAIサーバー「SuperX XN9160-B200」を発表しました。この次世代システムは、スケーラブルで高性能なコンピューティングパワーに対する高まる需要に応えるために設計されています。このサーバーはNVIDIAのBlackwell B200 GPUアーキテクチャを統合し、AIトレーニング、機械学習(ML)、高性能コンピューティング(HPC)における集中的なワークロードに対応します。
AIサーバー「XN9160-B200」は、大規模な分散型AIトレーニングおよび推論タスクを加速するために専用設計されています。システムの性能は、従来のH100シリーズと比較してAIイノベーションを最大30倍加速させると報告されており、大きな進歩として位置づけられています。その計算能力は、従来のスーパーコンピューターに匹敵するよう設計されつつ、よりコンパクトなエンタープライズグレードのフォームファクタで提供されます。この度の発表は、同社のAIインフラストラクチャ戦略における重要なマイルストーンとなります。
サーバーの中核には、第5世代のNVLinkテクノロジーで接続された8基のNVIDIA Blackwell B200 GPUが搭載されており、最大1.8TB/sのGPU間帯域幅を実現します。この構成は、大規模AIモデルのトレーニング速度を最大3倍向上させることを目指して設計されています。推論タスクにおいては、1440GBの大容量・広帯域HBM3Eメモリを活用し、前世代に比べて大幅な性能向上を実証しています。システムの計算アーキテクチャは、第6世代Intel® Xeon®プロセッサーと高速DDR5メモリによってさらに強化され、すべてが10Uのシャーシに収められています。
このサーバーは、さまざまな高度なアプリケーションに最適化されています。これには、強化学習や蒸留などの技術を用いた基盤モデルのトレーニングと推論、マルチモーダルモデルの処理、複雑なHPCシミュレーションなどが含まれます。具体的な応用分野としては、気候モデリング、創薬、地震解析、保険リスクモデリングなどが挙げられます。
重要なAIミッションにおける運用安定性を確保するため、XN9160-B200は、単一障害点のリスクを軽減するために複数の冗長電源を備えた高度なマルチパス電源冗長ソリューションを組み込んでいます。管理は、リモート監視を可能にする内蔵のインテリジェント管理システムによって行われます。同社は、信頼性を確保するために、各サーバーが広範な全負荷ストレステストとエージングスクリーニングを受けていることを強調しています。
XN9160-B200の主な市場には、大手テクノロジー企業、学術研究機関、そして金融、製薬、政府の気象機関などの専門分野が含まれます。シンガポールに本社を置くSuper X AI Technology Limitedは、世界中の機関投資家向けに、AIデータセンター用のハードウェア、ソフトウェア、およびエンドツーエンドのサービスのポートフォリオを提供しています。