NVIDIA TESLA

NVIDIA TESLA

お問い合わせ受付窓口 お問い合わせ受付窓口

サーバー向けデータセンターGPU

NVIDIA Tesla GPUを使用することで、最も要求の厳しいHPC(ハイパフォーマンスコンピューティング)やハイパースケールデータセンターのワークロードを高速化できます。データサイエンティストや研究者は、エネルギー探査からディープラーニングまで、幅広いアプリケーションで、従来のCPUよりもはるかに高速に数ペタバイトのデータを解析できるようになりました。

さらに、Teslaアクセラレーターは、従来にも増して大型のシミュレーションを高速で実行するために必要な強力なパワーを提供します。また、Teslaは仮想のデスクトップ、アプリケーション、ワークステーションに最高のパフォーマンスとユーザー密度を届けます。

NVIDIA TESLA

期間限定で「DGX Station」の
特別価格キャンペーンを開催中!

商品の詳しい情報やご相談、お見積もりは、
こちらからお気軽にお問い合わせください。

特長

ハイパフォーマンスコンピューティング イメージ図

ハイパフォーマンスコンピューティング(HPC)

HPCデータセンターは、限りなく増大し続ける科学者や研究者のコンピューティング ニーズに、限られた予算内で対応しなければなりません。汎用の計算ノードを多数展開する旧来の方法では、コスト増加に見合うほどには、データ センターの処理能力は向上しませんでした。

PCIe向けのNVIDIA Tesla P100を使用すると、混合ワークロードHPCデータセンターでラックの半分を占める汎用CPUを単一のアクセラレーションノードに置き換え、幅広いHPCアプリケーションで同じスループットを実現できます。550を超える HPCアプリケーション(トップ15をすべて含む)で高速化を実現しており、HPCのお客様全員に、費用を削減しつつワークロードに対する劇的なスループットの向上を実感していただけます。

あらゆるワークロードを仮想化

企業は変わりつつあります。ワークフローが進化し、すべてのユーザーとデバイスを対象に高度なシミュレーション、視覚化、最新のビジネスアプリを実行することが企業に求められています。

NVIDIA 仮想GPUソリューションとNVIDIA Pascal GPUを利用すれば、IT組織はグラフィックスと計算を仮想化し、あらゆるワークロードにリソースを簡単に割り当て、VDI投資に対して最大のユーザー密度を得ることができます。

ワークロードの仮想化 イメージ図

ラインアップ

以下のタブメニューを切り替えて、NVIDIA Teslaシリーズの各製品情報をご覧いただけます。

Tesla V100

PCle用のNVIDIA TESLA V100

あらゆるワークロードに対応する高い多様性
PCle用のNVIDIA TESLA V100

NVLINK用のNVIDIA TESLA V100

ディープラーニングのための究極のパフォーマンス
NVLink用のNVIDIA TESLA V100 ※1

※1 ボード単体でのお取り扱いはございません。
ハードウェアとのセット販売など、詳しくはお問い合わせください。

パフォーマンス

Deep Learning Training One Workday

AIトレーニング

音声認識から、仮想パーソナルアシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストはAIを使用してますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニングモデルのトレーニングを実用的な時間内に行う必要があります。

640個のTensorコアを搭載したTesla V100は、ディープラーニング性能で100テラフロップス(TOPS)の壁を突破した世界初のGPUです。次世代のNVIDIA NVLinkは、毎秒最高300GBで複数のV100 GPUに接続し、世界で最もパワフルなコンピューティングサーバーを構築します。従来のシステムではコンピューティングリソースを数週間消費していたAIモデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題がAIによって解決できるようになりました。

AI推論

最も関連性の高い情報、サービス、製品を提供できるようになるため、ハイパースケール企業はAIの利用を始めています。ただし、ユーザーの要求に応え続けることは、難しい課題です。たとえば、世界最大のハイパースケール企業が、すべてのユーザーがその企業の音声認識サービスを1日3分使用するだけで、データセンターの容量を倍にする必要があると最近見積もりました。

Tesla V100は、既存のハイパースケール サーバーラックのパフォーマンスを最大化するように設計されています。AI をその中心に据えた Tesla V100 GPUはCPUサーバーの30倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AIサービスのスケールアウトを現実的なものにします。

47X Higher Throughput than CPU Server on Deep Learning Inference
1.5X HPC Performance in One Year with NVIDIA Tesla V100

ハイパフォーマンスコンピューティング
(HPC)

HPCは現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100は、AIとHPCを統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャでNVIDIA CUDAコアとTensorコアを組み合わせることにより、Tesla V100 GPUを装備したサーバー1台で数百台の汎用CPUのみのサーバーに匹敵する能力が実現し、従来のHPCおよびAIワークロードに活用できます。現在、すべての研究者とエンジニアがAIスーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

スペック

NVIDIA Tesla V100の仕様

PCIeTesla用V100

NVLink用Tesla V100

パフォーマンス
with NVIDIA GPU Boost

倍精度
7テラフロップス

単精度
14テラフロップス

ディープラーニング
112テラフロップス

倍精度
7.8テラフロップス

単精度
15.7テラフロップス

ディープラーニング
125テラフロップス

相互接続帯域幅
双方向

PCIe
32GB / 秒

NVLink
300GB / 秒

メモリー
CoWoSスタックHBM2

容量
16GB HBM2

帯域幅
900GB / 秒

パワー最大消費

250W

300W

Tesla P100

混合ワークロードHPCに対応するNVIDIA Tesla P100

混合ワークロードHPCに対応
PCle用のNVIDIA Tesla P100

PCIe向けのTesla P100を利用すると、混合ワークロードHPCデータセンターでスループットを大幅に向上させる一方で、コストを削減できます。たとえば、PCIeで相互接続した4つのTesla P100が駆動する1台のGPUアクセラレーションノードで、さまざまなアプリケーションに利用できる32台の汎用CPUノードを置き換えることができます。はるかに少ない台数の強力なノードですべてのジョブを完了できるため、お客様はデータセンターのコスト全体を最大70%削減できます。

ストロングスケールHPCに対応するNVIDIA Tesla P100

ストロングスケールHPCに対応
NVLink用のNVIDIA Tesla P100

Tesla P100とNVIDIA NVLinkテクノロジーを搭載した超高速ノードでは、ストロングスケールアプリケーションの処理を加速し、より短時間で解決に導くことができます。NVLinkにより、1台のサーバーノードにつき最大8つのTesla P100を相互接続でき、帯域幅はPCIeの5倍になります。HPCやディープラーニングにおける膨大な計算を必要とする世界の最重要課題の解決を支援します。

パフォーマンス

Tesla P100とNVLinkによってデータセンターアプリケーションのパフォーマンスが最大で50倍向上

NVIDIA Tesla P100 Performance

スペック

P100 for PCIe-Based
Servers

P100 for NVLink-Optimized
Servers

Double-Precision Performance

4.7テラフロップス

5.3テラフロップス

Single-Precision Performance

9.3テラフロップス

10.6テラフロップス

Half-Precision Performance

18.7テラフロップス

21.2テラフロップス

NVIDIA NVLink Interconnect Bandwidth

--

160GB / 秒

PCIe x16 Interconnect Bandwidth

32GB / 秒

32GB / 秒

CoWoS HBM2 Stacked Memory Capacity

16GB or 12GB

16GB

CoWoS HBM2 Stacked Memory Bandwidth

732GB / 秒 or 549GB / 秒

732GB / 秒

Enhanced Programmability with Page Migration Engine

対応
対応

ECC Protection for Reliability

対応
対応

Server-Optimized for Data Center Deployment

対応
対応

Tesla P40/P4

最大のディープラーニング推論スループット Tesla P40

最大のディープラーニング推論スループット
NVIDIA Tesla P40

Tesla P40は、ディープラーニング推論のスループットを最大化するよう設計されています。GPUあたり47TOPS(Tera-Operations Per Second)の推論性能を持ち、8つのTesla P40は100台を超えるCPUサーバーに匹敵します。

スケールアウト サーバーにおける超高効率ディープラーニング  Tesla P4

スケールアウトサーバーにおける超高効率ディープラーニング
NVIDIA Tesla P4

Tesla P4はスケールアウトサーバーを高速化するよう設計されており、CPUの40倍という素晴らしいエネルギー効率性を提供します。

パフォーマンス

NVIDIA TESLA推論アクセラレーター

Deep Learning Inference Latency
Deep Learning Inference Throughput

スペック

Tesla P40最大推論
スループットサーバー向け

Tesla P4超高効率
スケールアウトサーバー向け

単精度演算性能

12テラフロップス

5.5テラフロップス

整数演算(INT8)

47TOPS

22TOPS

GPUメモリー

24GB

8GB

メモリー帯域幅

346GB / 秒

192GB / 秒

システムインターフェース

デュアルスロット、フルハイトPCI Expressフォームファクタ

ロープロファイルPCI Expressフォームファクタ

電力

250W

50W / 75W

ハードウェアアクセラレーションを使用したビデオエンジン

デコードエンジン×1、エンコードエンジン×2

デコードエンジン×1、エンコードエンジン×2

※ ブーストクロック有効時のTera-Operations per Second

Tesla M40

世界最速のディープラーニングトレーニング アクセラレータ Tesla M40

世界最速のディープラーニング トレーニング アクセラレータ
NVIDIA Tesla M40

ディープラーニングが可能なものを再定義します。起業間もない新興企業から大規模なウェブサービスプロバイダーに至るまで、ディープラーニングはエンドユーザーに驚くようなソリューションを提供する際の礎石となっています。

今日の主要なディープラーニングモデルは、訓練に概して数日から数週間かかるものであり、データサイエンティストは精密性と導入までの時間の間で妥協を強いられています。NVIDIA Tesla M40 GPUアクセラレータはディープラーニング トレーニング用の最速のアクセラレータであり、訓練にかかる時間を劇的に削減する目的で作られています。

Tesla M40上でCaffeやTorch を実行した場合、同じモデルを完成させるのにCPUだけの計算システムでは数日かかったのに比べ、数時間で実現できます。

パフォーマンス

13X FASTER TRAINING

スペック

  • NVIDIA Maxwellアーキテクチャ
  • NVIDIA GPU Boostで、最大7テラフロップスの単精度性能
  • 3072個のNVIDIA CUDAコア
  • 12GBのGDDR5メモリー
  • 毎秒288GBのメモリー帯域幅
  • データセンターに最大限のアップタイムを提供する仕様

関連リンク

商品に関するお問い合わせ

パナソニック ソリューションテクノロジー株式会社 お問い合わせ受付窓口
電話番号: 0570-087870
    受付時間: 9時00分~17時30分 (土・日・祝・当社指定休業日を除く)

お問い合わせイメージ お問い合わせイメージ

※ 記載されている会社名、商品名は各社の商標または登録商標です。なお、本文中では™、®マークは基本的に明記していません。