NVIDIA TESLA NVIDIA TESLA

NVIDIA TESLA

お問い合わせ受付窓口 お問い合わせ受付窓口

サーバー向けデータセンターGPU

NVIDIA Tesla GPUを使用することで、最も要求の厳しいHPC(ハイパフォーマンスコンピューティング)やハイパースケールデータセンターのワークロードを高速化できます。データサイエンティストや研究者は、エネルギー探査からディープラーニングまで、幅広いアプリケーションで、従来のCPUよりもはるかに高速に数ペタバイトのデータを解析できるようになりました。

さらに、Teslaアクセラレーターは、従来にも増して大型のシミュレーションを高速で実行するために必要な強力なパワーを提供します。また、Teslaは仮想のデスクトップ、アプリケーション、ワークステーションに最高のパフォーマンスとユーザー密度を届けます。

NVIDIA TESLA

一般企業向け/アカデミック向けに、
期間限定の特別価格キャンペーンを開催中!

商品の詳しい情報やご相談、お見積もりは、
こちらからお気軽にお問い合わせください。

特長

ハイパフォーマンスコンピューティング イメージ図

ハイパフォーマンスコンピューティング(HPC)

HPCデータセンターは、限りなく増大し続ける科学者や研究者のコンピューティング ニーズに、限られた予算内で対応しなければなりません。汎用の計算ノードを多数展開する旧来の方法では、コスト増加に見合うほどには、データ センターの処理能力は向上しませんでした。

PCIe向けのNVIDIA Tesla P100を使用すると、混合ワークロードHPCデータセンターでラックの半分を占める汎用CPUを単一のアクセラレーションノードに置き換え、幅広いHPCアプリケーションで同じスループットを実現できます。550を超える HPCアプリケーション(トップ15をすべて含む)で高速化を実現しており、HPCのお客様全員に、費用を削減しつつワークロードに対する劇的なスループットの向上を実感していただけます。

あらゆるワークロードを仮想化

企業は変わりつつあります。ワークフローが進化し、すべてのユーザーとデバイスを対象に高度なシミュレーション、視覚化、最新のビジネスアプリを実行することが企業に求められています。

NVIDIA 仮想GPUソリューションとNVIDIA Pascal GPUを利用すれば、IT組織はグラフィックスと計算を仮想化し、あらゆるワークロードにリソースを簡単に割り当て、VDI投資に対して最大のユーザー密度を得ることができます。

ワークロードの仮想化 イメージ図

ラインアップ

以下のタブメニューを切り替えて、NVIDIA Teslaシリーズの各製品情報をご覧いただけます。

Tesla V100

PCle用のNVIDIA TESLA V100

あらゆるワークロードに対応する高い多様性
PCle用のNVIDIA TESLA V100

NVLINK用のNVIDIA TESLA V100

ディープラーニングのための究極のパフォーマンス
NVLink用のNVIDIA TESLA V100 ※1

※1 ボード単体でのお取り扱いはございません。
ハードウェアとのセット販売など、詳しくはお問い合わせください。

パフォーマンス

Deep Learning Training One Workday

AIトレーニング

音声認識から、仮想パーソナルアシスタントのトレーニング、ロボットカーに運転を教えることまで、データサイエンティストはAIを使用してますます複雑な課題に取り組んでいます。この種の問題の解決には、複雑さが指数関数的に増加しつつあるディープラーニングモデルのトレーニングを実用的な時間内に行う必要があります。

640個のTensorコアを搭載したTesla V100は、ディープラーニング性能で100テラフロップス(TOPS)の壁を突破した世界初のGPUです。次世代のNVIDIA NVLinkは、毎秒最高300GBで複数のV100 GPUに接続し、世界で最もパワフルなコンピューティングサーバーを構築します。従来のシステムではコンピューティングリソースを数週間消費していたAIモデルが、今では数日でトレーニングできるようになりました。このトレーニング時間の劇的な削減により、まったく新しい世界の問題がAIによって解決できるようになりました。

AI推論

最も関連性の高い情報、サービス、製品を提供できるようになるため、ハイパースケール企業はAIの利用を始めています。ただし、ユーザーの要求に応え続けることは、難しい課題です。たとえば、世界最大のハイパースケール企業が、すべてのユーザーがその企業の音声認識サービスを1日3分使用するだけで、データセンターの容量を倍にする必要があると最近見積もりました。

Tesla V100は、既存のハイパースケール サーバーラックのパフォーマンスを最大化するように設計されています。AI をその中心に据えた Tesla V100 GPUはCPUサーバーの30倍の推論性能を実現します。スループットと効率性のこの大きな飛躍は、AIサービスのスケールアウトを現実的なものにします。

47X Higher Throughput than CPU Server on Deep Learning Inference
1.5X HPC Performance in One Year with NVIDIA Tesla V100

ハイパフォーマンスコンピューティング
(HPC)

HPCは現代科学の基礎となる柱です。天気予報から創薬、新しいエネルギー源の発見まで、研究者は大型の計算システムを使用して世界をシミュレーションし、予測しています。AI は従来の HPC を拡張し、研究者が大量のデータを分析できるようにします。シミュレーションだけでは現実を完全に予測できないような洞察が短期間で得られます。

Tesla V100は、AIとHPCを統合するために設計されています。科学的シミュレーションのための計算科学と、データから洞察を見つけるためのデータ科学の両方に優れた HPC システムのプラットフォームを提供します。統一されたアーキテクチャーでNVIDIA CUDAコアとTensorコアを組み合わせることにより、Tesla V100 GPUを装備したサーバー1台で数百台の汎用CPUのみのサーバーに匹敵する能力が実現し、従来のHPCおよびAIワークロードに活用できます。現在、すべての研究者とエンジニアがAIスーパーコンピューターを利用して、最も困難な作業に取り組むことができます。

スペック

NVIDIA Tesla V100の仕様

PCIeTesla用V100

NVLink用Tesla V100

パフォーマンス
with NVIDIA GPU Boost

倍精度
7テラフロップス

単精度
14テラフロップス

ディープラーニング
112テラフロップス

倍精度
7.8テラフロップス

単精度
15.7テラフロップス

ディープラーニング
125テラフロップス

相互接続帯域幅
双方向

PCIe
32GB / 秒

NVLink
300GB / 秒

メモリー
CoWoSスタックHBM2

容量
16GB HBM2

帯域幅
900GB / 秒

パワー最大消費

250W

300W

Tesla P100

混合ワークロードHPCに対応するNVIDIA Tesla P100

混合ワークロードHPCに対応
PCle用のNVIDIA Tesla P100

PCIe向けのTesla P100を利用すると、混合ワークロードHPCデータセンターでスループットを大幅に向上させる一方で、コストを削減できます。たとえば、PCIeで相互接続した4つのTesla P100が駆動する1台のGPUアクセラレーションノードで、さまざまなアプリケーションに利用できる32台の汎用CPUノードを置き換えることができます。はるかに少ない台数の強力なノードですべてのジョブを完了できるため、お客様はデータセンターのコスト全体を最大70%削減できます。

ストロングスケールHPCに対応するNVIDIA Tesla P100

ストロングスケールHPCに対応
NVLink用のNVIDIA Tesla P100

Tesla P100とNVIDIA NVLinkテクノロジーを搭載した超高速ノードでは、ストロングスケールアプリケーションの処理を加速し、より短時間で解決に導くことができます。NVLinkにより、1台のサーバーノードにつき最大8つのTesla P100を相互接続でき、帯域幅はPCIeの5倍になります。HPCやディープラーニングにおける膨大な計算を必要とする世界の最重要課題の解決を支援します。

パフォーマンス

Tesla P100とNVLinkによってデータセンターアプリケーションのパフォーマンスが最大で50倍向上

NVIDIA Tesla P100 Performance

スペック

NVIDIA Tesla P100の仕様

P100 for PCIe-Based
Servers

P100 for NVLink-Optimized
Servers

Double-Precision Performance

4.7テラフロップス

5.3テラフロップス

Single-Precision Performance

9.3テラフロップス

10.6テラフロップス

Half-Precision Performance

18.7テラフロップス

21.2テラフロップス

NVIDIA NVLink Interconnect Bandwidth

--

160GB / 秒

PCIe x16 Interconnect Bandwidth

32GB / 秒

32GB / 秒

CoWoS HBM2 Stacked Memory Capacity

16GB or 12GB

16GB

CoWoS HBM2 Stacked Memory Bandwidth

732GB / 秒 or 549GB / 秒

732GB / 秒

Enhanced Programmability with Page Migration Engine

対応
対応

ECC Protection for Reliability

対応
対応

Server-Optimized for Data Center Deployment

対応
対応

Tesla T4

柔軟な設計、画期的なパフォーマンス Tesla T4

柔軟な設計、画期的なパフォーマンス
NVIDIA Tesla T4

NVIDIA T4 GPUは、ハイパフォーマンスコンピューティング、ディープラーニングのトレーニングと推論、機械学習、データ分析、グラフィックスなど、さまざまなクラウドワークロードを加速します。新しいNVIDIA Turingアーキテクチャーを基盤とし、エネルギー効率に優れた70ワットの小型PCIeフォームファクターに収納されたT4は、主要なコンピューティング環境に最適化されており、多精度のTuring Tensorコアと新しいRTコアを備えています。NGCのコンテナー化された高速ソフトウェアスタックと組み合わせることで、T4は規模に応じた革新的なパフォーマンスを提供します。

パフォーマンス

画期的なパフォーマンス

T4は、革新的なTuring Tensorコアテクノロジーと多精度コンピューティングが採用されており、さまざまなワークロードに対応します。FP32からFP16、INT8、さらにはINT4の精度に対応する画期的な性能を備えたT4は、CPUの最大40倍のパフォーマンスを発揮します。

画期的なパフォーマンス Tesla T4

リアルタイムで最先端の推論

対話型AI、レコメンダーシステム、画像検索などのサービスのユーザーエンゲージメントには応答性が重要です。モデルの精度と複雑さが増すにつれ、正解を即座に提供するには飛躍的に膨大な計算能力が必要になります。T4は、最大40倍のスループットを実現するため、より多くのリクエストをリアルタイムで対応できます。

T4 推論性能

ビデオコード変換パフォーマンス

オンラインのビデオの数が飛躍的に増えるにつれて、ビデオを効率的に検索し、知見を引き出すソリューションの需要も同様に増えています。T4は、旧世代GPUの2倍のデコーディングパフォーマンスを実現する専用のハードウェアコード変換エンジンを使用して、AIビデオアプリケーションのために画期的なパフォーマンスを提供します。T4は最大38のフルHDビデオストリームをデコードできるため、スケーラブルなディープラーニングをこのビデオパイプラインに容易に統合でき、革新的かつスマートなビデオサービスを実現します。

スペック

NVIDIA Tesla T4の仕様

パフォーマンス

Turing Tensorコア

320

NVIDIA CUDAコア

2,560

Single Precision Performance(FP32)

8.1TFLOPS

混合精度(FP16 / FP32)

65FP16 TFLOPS

INT8精度

130INT8 TOPS

INT4精度

260INT4 TOPS

GEN3

x16PCIe

メモリー

容量

16GB GDDR6

帯域幅

320+ GB/秒

電力

70watts

資料請求のお申し込み

「NVIDIA DGX/TESLAディープラーニングシステム」について、
講演資料や技術情報など資料一式を無料でご提供しております。

お申し込みの際は、以下の「資料請求はこちら(無料)」ボタンよりお進みください。

NVIDIA関連資料

NVIDIA NEWSの資料イメージ

NVIDIAニュース
2019年11月18日~21日、米国コロラド州にて開催された「SuperComputing 2019(SC19)」におけるNVIDIA関連の情報を瓦版にまとめました。NVIDIAの創業者である、Jensen Huang氏(Founder,President and CEO)のご講演内容も掲載しています。

NVIDIA DGX SuperPODの紹介資料イメージ

NVIDIA DGX SuperPODのご紹介
NVIDIAは、わずか3週間で世界で22番目に速いスパコン「DGX SuperPOD」を開発しました(2019年6月)。
DGX Systemsをどのように利用して、TOP500にランクされるレベルのインフラを迅速に構築できるのかご紹介しています。

プラス

セミナー講演資料(【AI開発の処方箋】ディープラーニングを加速させるNVIDIA活用セミナー)

NVIDIA活用セミナーの講演資料イメージ「DGXの性能を引き出すNGCとDeepOps」

「DGXの性能を引き出すNGCとDeepOps」(NVIDIA社)
複雑な機械学習モデルのトレーニングに最適なDGXシリーズですが、その性能を余すことなく引き出すためには「効果的な使い方」が重要です。NGCや複数の開発者が同時に利用できる環境を素早く整える、NVIDIAソリューションの活用方法をご紹介しています。

NVIDIA活用セミナーの講演資料イメージ:DGXシリーズのご紹介

「DGXシリーズのご紹介」(パナソニック ソリューションテクノロジー株式会社)
NVIDIA担当チーフエンジニアの木村が講演しました。AI/ディープラーニングの学習基盤として圧倒的なパフォーマンスを発揮するDGXシリーズを中心に、NVIDIAソリューションの特長・ユースケース・メリットについてパナソニック内での事例も交えてご紹介しています。

特別価格キャンペーン

関連リンク

商品に関するお問い合わせ

パナソニック ソリューションテクノロジー株式会社 お問い合わせ受付窓口
電話番号: 0570-087870
    受付時間: 9時00分~17時30分 (土・日・祝・当社指定休業日を除く)

お問い合わせイメージ お問い合わせイメージ

※ 記載されている会社名、商品名は各社の商標または登録商標です。なお、本文中では™、®マークは基本的に明記していません。