NVIDIA TESLA


サーバー向けデータセンターGPU
NVIDIA Tesla GPUを使用することで、最も要求の厳しいHPC(ハイパフォーマンスコンピューティング)やハイパースケールデータセンターのワークロードを高速化できます。データサイエンティストや研究者は、エネルギー探査からディープラーニングまで、幅広いアプリケーションで、従来のCPUよりもはるかに高速に数ペタバイトのデータを解析できるようになりました。
さらに、Teslaアクセラレーターは、従来にも増して大型のシミュレーションを高速で実行するために必要な強力なパワーを提供します。また、Teslaは仮想のデスクトップ、アプリケーション、ワークステーションに最高のパフォーマンスとユーザー密度を届けます。

特長

ハイパフォーマンスコンピューティング(HPC)
HPCデータセンターは、限りなく増大し続ける科学者や研究者のコンピューティング ニーズに、限られた予算内で対応しなければなりません。汎用の計算ノードを多数展開する旧来の方法では、コスト増加に見合うほどには、データ センターの処理能力は向上しませんでした。
PCIe向けのNVIDIA Tesla P100を使用すると、混合ワークロードHPCデータセンターでラックの半分を占める汎用CPUを単一のアクセラレーションノードに置き換え、幅広いHPCアプリケーションで同じスループットを実現できます。550を超える HPCアプリケーション(トップ15をすべて含む)で高速化を実現しており、HPCのお客様全員に、費用を削減しつつワークロードに対する劇的なスループットの向上を実感していただけます。
あらゆるワークロードを仮想化
企業は変わりつつあります。ワークフローが進化し、すべてのユーザーとデバイスを対象に高度なシミュレーション、視覚化、最新のビジネスアプリを実行することが企業に求められています。
NVIDIA 仮想GPUソリューションとNVIDIA Pascal GPUを利用すれば、IT組織はグラフィックスと計算を仮想化し、あらゆるワークロードにリソースを簡単に割り当て、VDI投資に対して最大のユーザー密度を得ることができます。

ラインアップ
以下のタブメニューを切り替えて、NVIDIA Teslaシリーズの各製品情報をご覧いただけます。
Tesla V100

あらゆるワークロードに対応する高い多様性
PCle用のNVIDIA TESLA V100

ディープラーニングのための究極のパフォーマンス
NVLink用のNVIDIA TESLA V100 ※1
※1 ボード単体でのお取り扱いはございません。
ハードウェアとのセット販売など、詳しくはお問い合わせください。
パフォーマンス

AIトレーニング
音声認識から、仮想パーソナルアシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストはAIを使用してますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニングモデルのトレーニングを実用的な時間内に行う必要があります。
640個のTensorコアを搭載したTesla V100は、ディープラーニング性能で100テラフロップス(TOPS)の壁を突破した世界初のGPUです。次世代のNVIDIA NVLinkは、毎秒最高300GBで複数のV100 GPUに接続し、世界で最もパワフルなコンピューティングサーバーを構築します。従来のシステムではコンピューティングリソースを数週間消費していたAIモデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題がAIによって解決できるようになりました。
AI推論
最も関連性の高い情報、サービス、製品を提供できるようになるため、ハイパースケール企業はAIの利用を始めています。ただし、ユーザーの要求に応え続けることは、難しい課題です。たとえば、世界最大のハイパースケール企業が、すべてのユーザーがその企業の音声認識サービスを1日3分使用するだけで、データセンターの容量を倍にする必要があると最近見積もりました。
Tesla V100は、既存のハイパースケール サーバーラックのパフォーマンスを最大化するように設計されています。AI をその中心に据えた Tesla V100 GPUはCPUサーバーの30倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AIサービスのスケールアウトを現実的なものにします。


ハイパフォーマンスコンピューティング
(HPC)
HPCは現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。
Tesla V100は、AIとHPCを統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャでNVIDIA CUDAコアとTensorコアを組み合わせることにより、Tesla V100 GPUを装備したサーバー1台で数百台の汎用CPUのみのサーバーに匹敵する能力が実現し、従来のHPCおよびAIワークロードに活用できます。現在、すべての研究者とエンジニアがAIスーパーコンピューターを利用して、最も困難な作業に取り組むことができます。
スペック
NVIDIA Tesla V100の仕様
|
PCIeTesla用V100 |
NVLink用Tesla V100 |
---|---|---|
パフォーマンス |
倍精度 単精度 ディープラーニング |
倍精度 単精度 ディープラーニング |
相互接続帯域幅 |
PCIe |
NVLink |
メモリー |
容量 帯域幅 |
|
パワー最大消費 |
250W |
300W |
Tesla P100

混合ワークロードHPCに対応
PCle用のNVIDIA Tesla P100
PCIe向けのTesla P100を利用すると、混合ワークロードHPCデータセンターでスループットを大幅に向上させる一方で、コストを削減できます。たとえば、PCIeで相互接続した4つのTesla P100が駆動する1台のGPUアクセラレーションノードで、さまざまなアプリケーションに利用できる32台の汎用CPUノードを置き換えることができます。はるかに少ない台数の強力なノードですべてのジョブを完了できるため、お客様はデータセンターのコスト全体を最大70%削減できます。

ストロングスケールHPCに対応
NVLink用のNVIDIA Tesla P100
Tesla P100とNVIDIA NVLinkテクノロジーを搭載した超高速ノードでは、ストロングスケールアプリケーションの処理を加速し、より短時間で解決に導くことができます。NVLinkにより、1台のサーバーノードにつき最大8つのTesla P100を相互接続でき、帯域幅はPCIeの5倍になります。HPCやディープラーニングにおける膨大な計算を必要とする世界の最重要課題の解決を支援します。
パフォーマンス
Tesla P100とNVLinkによってデータセンターアプリケーションのパフォーマンスが最大で50倍向上

スペック
|
P100 for PCIe-Based |
P100 for NVLink-Optimized |
---|---|---|
Double-Precision Performance |
4.7テラフロップス |
5.3テラフロップス |
Single-Precision Performance |
9.3テラフロップス |
10.6テラフロップス |
Half-Precision Performance |
18.7テラフロップス |
21.2テラフロップス |
NVIDIA NVLink Interconnect Bandwidth |
-- |
160GB / 秒 |
PCIe x16 Interconnect Bandwidth |
32GB / 秒 |
32GB / 秒 |
CoWoS HBM2 Stacked Memory Capacity |
16GB or 12GB |
16GB |
CoWoS HBM2 Stacked Memory Bandwidth |
732GB / 秒 or 549GB / 秒 |
732GB / 秒 |
Enhanced Programmability with Page Migration Engine |
![]() |
![]() |
ECC Protection for Reliability |
![]() |
![]() |
Server-Optimized for Data Center Deployment |
![]() |
![]() |
Tesla P40/P4

最大のディープラーニング推論スループット
NVIDIA Tesla P40
Tesla P40は、ディープラーニング推論のスループットを最大化するよう設計されています。GPUあたり47TOPS(Tera-Operations Per Second)の推論性能を持ち、8つのTesla P40は100台を超えるCPUサーバーに匹敵します。

スケールアウトサーバーにおける超高効率ディープラーニング
NVIDIA Tesla P4
Tesla P4はスケールアウトサーバーを高速化するよう設計されており、CPUの40倍という素晴らしいエネルギー効率性を提供します。
パフォーマンス
NVIDIA TESLA推論アクセラレーター


スペック
|
Tesla P40最大推論 |
Tesla P4超高効率 |
---|---|---|
単精度演算性能 |
12テラフロップス |
5.5テラフロップス |
整数演算(INT8) |
47TOPS※ |
22TOPS※ |
GPUメモリー |
24GB |
8GB |
メモリー帯域幅 |
346GB / 秒 |
192GB / 秒 |
システムインターフェース |
デュアルスロット、フルハイトPCI Expressフォームファクタ |
ロープロファイルPCI Expressフォームファクタ |
電力 |
250W |
50W / 75W |
ハードウェアアクセラレーションを使用したビデオエンジン |
デコードエンジン×1、エンコードエンジン×2 |
デコードエンジン×1、エンコードエンジン×2 |
※ ブーストクロック有効時のTera-Operations per Second
Tesla M40

世界最速のディープラーニング トレーニング アクセラレータ
NVIDIA Tesla M40
ディープラーニングが可能なものを再定義します。起業間もない新興企業から大規模なウェブサービスプロバイダーに至るまで、ディープラーニングはエンドユーザーに驚くようなソリューションを提供する際の礎石となっています。
今日の主要なディープラーニングモデルは、訓練に概して数日から数週間かかるものであり、データサイエンティストは精密性と導入までの時間の間で妥協を強いられています。NVIDIA Tesla M40 GPUアクセラレータはディープラーニング トレーニング用の最速のアクセラレータであり、訓練にかかる時間を劇的に削減する目的で作られています。
Tesla M40上でCaffeやTorch を実行した場合、同じモデルを完成させるのにCPUだけの計算システムでは数日かかったのに比べ、数時間で実現できます。
パフォーマンス

スペック
- NVIDIA Maxwellアーキテクチャ
- NVIDIA GPU Boostで、最大7テラフロップスの単精度性能
- 3072個のNVIDIA CUDAコア
- 12GBのGDDR5メモリー
- 毎秒288GBのメモリー帯域幅
- データセンターに最大限のアップタイムを提供する仕様
商品に関するお問い合わせ

