PRODUCTS GPU関連製品GPUコンピューティングボード

NVIDIA Tesla P40

最高の推論処理能力を学習

人工知能や、インテリジェントマシーンの新しい領域である、ディープラーニングは、歴史上、全く新しいコンピューティングモデルの世界を創造しています。革新的な NVIDIA Pascal アーキテクチャによる GPU パワーは、人工知能の新たな時代の計算エンジンを供給し、ディープラーニングアプリケーションをアクセラレートすることによって、驚くべきユーザーエクスペリエンスを可能にします。

Tesla P40 は、ディープラーニング向けに最大のスループットを発揮するように設計されています。Tesla P40 は、47 TOPS(Tera-Operations Per Second)の推論性能を有し、8個の Tesla P40 を搭載した1台のサーバは、140個以上のCPU を搭載したサーバの性能に匹敵します。

モデルが正確さや複雑さを増す中で、もはやCPUだけでは、インタラクティブユーザーエクスペリエンスを実現できません。Tesla P40 は、最も複雑なモデルであっても、リアルタイムな応答性を、CPUよりも、30倍以上も低いレイテンシで実現します。



NVIDIA TESLA P40 の高速化機能と特徴

Tesla P40 は、ディープラーニング向けに最大のスループットを発揮するように設計されています。

膨大なデータ量に負けない140倍の高い処理能力
Tesla P40 は、最新のPascal アーキテクチャが採用され、ディープラーニング推論で47TOPS 以上もの性能を有します。
8枚のTesla P40 を搭載した1台のサーバは、ディープラーニング向けに利用されている140個のCPU が搭載されたサーバと同等の性能を有し、結果として、より低いコストでより高いスループットを実現します。
リアルタイム 推論
Tesla P40 は、最も複雑なディープラーニングモデルを使ったリアルタイムな応答性を、INT8 オペレーションによって、30倍以上速い推論性能を実現します。
シンプル操作で単一のトレーニングと推論プラットフォームを実現
今日、ディープラーニングモデルは、GPUサーバでトレーニングされていますが、推論は、CPUサーバでデプロイされています。Tesla P40 は、劇的にシンプル化されたワークフローを提供し、組織が同じサーバで繰り返し、デプロイにも使うことができます。
NVIDIA Deep Learning SDK で高速なデプロイ
TensorRT は、NVIDIA Deep Learning SDK と Deep Stream SDK からなり、カスタマーがシームレスに新しいINT8 オペレーションやビデオトランスコーディングのような推論能力を利用することをサポートします。

NVIDIA Tesla P40

製品名 Tesla P40
GPUアーキテクチャ NVIDIA Pascal
CUDA コアプロセッサ数 3840
整数演算性能[INT8] 47TOPS(最大ブースト)
単精度演算性能 12TFLOPS(最大ブースト)
メモリ 24GB(バンド帯域幅 346GB/s)
接続バスコネクタ PCI Express 3.0 x16
最大消費電力 250W
対応OS(*1) Windows® Server 2012 R2 / Windows® Server 2008 R2 64bit /
Windows® 8.1 64bit / Windows® 7 64bit /
Linux 64bit
※32bit OSはサポート対象外
(*1) オンボードグラフィックスとの共存ができない場合もございますのでNVIDIA Quadro®/NVS®との組み合わせでのご利用を推奨致します。