NVIDIA DGX STATION A100 NVIDIA DGX STATION A100

NVIDIA DGX STATION A100

お問い合わせ受付窓口 お問い合わせ受付窓口

デスクの下の
AIスーパーコンピューター

NVIDIA DGX Station A100 は、データサイエンスチームにAIスーパーコンピューティングをもたらします。データセンターがなくても、あるいはITに追加投資しなくても、データセンターのテクノロジーがもたらされます。パフォーマンスはパワフルで、ソフトウェアスタックは完全に最適化されており、NVIDIA DGXperts※1に直接問い合わせることができるため、インサイトを得るまでの時間が短縮されます。

※1 DGXpertsとは、計画から実装、継続的な最適化に至る、AI導入の過程でお客様を支援するAIに熟達したスペシャリストです。

NVIDIA DGX Station

職場や自宅にデータセンターのパフォーマンスをもたらす

AI 時代のワークグループサーバー

DGX Station A100を利用すれば、組織は、NVIDIA DGXベースの他のインフラストラクチャーとシームレスに統合されたシステムを利用し、あらゆるワークロード(トレーニング、推論、データ分析)のために、集中型AIリソースを複数のユーザーに提供できます。また、マルチインスタンス GPU(MIG)を利用すると、最大28台の独立したGPUデバイスを個々のユーザーに割り当てることができます。

データセンターなしでデータセンターのパフォーマンス

DGX Station A100は、サーバー級ながら、データセンターの電力と冷却機能を必要としないAIシステムです。DGX Station A100は4つのNVIDIA A100 TensorコアGPU、最上位のサーバー級CPU、超高速NVMeストレージ、最先端のPCIe Gen4バスを備えています。それに加えてリモート管理が可能で、サーバーのように管理できます。

どこにでも配置できるAIアプライアンス

企業のオフィス、研究室、研究施設、さらには自宅で作業する今日のアジャイルデータサイエンスチームのために設計されたDGX Station A100には、複雑な設置作業も、多額のIT投資も必要ありません。一般的なコンセントにプラグを差し込むだけで数分後には稼働し、どこからでも作業できます。

より大規模なモデル、より高速な応答

NVIDIA DGX Station A100は、MIG対応NVIDIA A100 GPUが4つ完全相互接続された、世界で唯一のワークステーションスタイルシステムです。NVIDIAR NVLinkによって、システムパフォーマンスに影響を与えることなく、並列ジョブを実行し、複数のユーザーに対処します。完全にGPU最適化されたソフトウェアスタックと最大320ギガバイト(GB)のGPUメモリーで大規模モデルをトレーニングできます。

一般企業向け/アカデミック向けに、
期間限定の特別価格キャンペーンを開催中!

商品の詳しい情報やご相談、お見積もりは、
こちらからお気軽にお問い合わせください。

DGX STATION A100の
パワフルなコンポーネントを見る

スペック

  NVIDIA DGX Station A100 320GB NVIDIA DGX Station A100 160GB
GPU 4x NVIDIA A100 80GB GPUs 4x NVIDIA A100 40GB GPUs
GPUメモリー 320GB(GPU 4基の合計) 160GB(GPU 4基の合計)
パフォーマンス 2.5 petaFLOPS AI
5 petaOPS INT8
最大消費電力 1,500W
100-120VAC
CPU Single AMD 7742,64 cores,
2.25 GHz(base)-3.4 GHz(max boost)
システムメモリー 512GB DDR4
ネットワーク Dual 10Gbase-T Ethernet LAN
Single 1Gbase-T Ethernet BMC management port
ストレージ OS: 1x 1.92 TB NVME drive
Internal storage: 7.68 TB U.2 NVME drive
ディスプレイアダプター 4 GB GPU memory,
4x Mini DisplayPort
静音性 37dB未満
OS Ubuntu Linux OS
システム重量 43.1kg
梱包重量 57.93kg
サイズ 518D × 256W × 639H (mm)
運用温度範囲 5-35℃

※ 記載されている仕様は、製品の改良により予告なく変更される場合があります。

パフォーマンス

高性能なトレーニングにより、生産性が向上し、洞察を得るまでの時間と市場投入までの時間が短縮されます。

トレーニング


BERT 大規模なトレーニング済み Phase 1

3 倍以上の高速化

The Training Performance

DGX Station A100 320GB;Batch Size=64;Mixed Precision;With AMP;Real Data;Sequence Length=128

推論


BERT 大規模な推論

4 倍以上の高速化

The Inference Performance

DGX Station A100 320GB;Batch Size=256;INT8 Precision;Synthetic Data;Sequence Length=128,cuDNN8.0.4

マルチGPUの
スケーラビリティー


ResNet-50 V1.5 トレーニング

高い拡張性

Delivers Linear Scalability

DGX Station A100 320GB;Batch Size=192;Mixed Precision;Real Data;cuDNN Version=8.0.4;NCCL Version=2.7.8;NGC MXNet 20.10 Container

資料請求のお申し込み

「NVIDIA DGX AI・ディープラーニングシステム」について、
講演資料や技術情報など資料一式を無料でご提供しております。

お申し込みの際は、以下の「資料請求はこちら(無料)」ボタンよりお進みください。

NVIDIA関連資料

NVIDIA NEWSの資料イメージ

NVIDIAニュース
2019年11月18日~21日、米国コロラド州にて開催された「SuperComputing 2019(SC19)」におけるNVIDIA関連の情報を瓦版にまとめました。NVIDIAの創業者である、Jensen Huang氏(Founder,President and CEO)のご講演内容も掲載しています。

NVIDIA DGX SuperPODの紹介資料イメージ

NVIDIA DGX SuperPODのご紹介
NVIDIAは、わずか3週間で世界で22番目に速いスパコン「DGX SuperPOD」を開発しました(2019年6月)。
DGX Systemsをどのように利用して、TOP500にランクされるレベルのインフラを迅速に構築できるのかご紹介しています。

プラス

セミナー講演資料(【AI開発の処方箋】ディープラーニングを加速させるNVIDIA活用セミナー)

NVIDIA活用セミナーの講演資料イメージ「DGXの性能を引き出すNGCとDeepOps」

「DGXの性能を引き出すNGCとDeepOps」(NVIDIA社)
複雑な機械学習モデルのトレーニングに最適なDGXシリーズですが、その性能を余すことなく引き出すためには「効果的な使い方」が重要です。NGCや複数の開発者が同時に利用できる環境を素早く整える、NVIDIAソリューションの活用方法をご紹介しています。

NVIDIA活用セミナーの講演資料イメージ:DGXシリーズのご紹介

「DGXシリーズのご紹介」(パナソニック ソリューションテクノロジー株式会社)
NVIDIA担当チーフエンジニアの木村が講演しました。AI・ディープラーニングの学習基盤として圧倒的なパフォーマンスを発揮するDGXシリーズを中心に、NVIDIAソリューションの特長・ユースケース・メリットについてパナソニック内での事例も交えてご紹介しています。

商品カタログ

NVIDIA DGX STATION A100
PDF 1.11MB

関連リンク

商品に関するお問い合わせ

パナソニック ソリューションテクノロジー株式会社 お問い合わせ受付窓口
電話番号: 0570-087870
    受付時間: 9時00分~17時30分 (土・日・祝・当社指定休業日を除く)

お問い合わせイメージ お問い合わせイメージ

※ 記載されている会社名、商品名は各社の商標または登録商標です。なお、本文中では™、®マークは基本的に明記していません。