GDEP Solutions, Inc.
  • Home
    • 新着情報一覧
    • GPU2020 開催概要 >
      • Day1-AI&GPU
      • Day2-ImagingAI
      • Day3-GPUスパコン
      • 過去開催 GPU2019
  • GPU製品
    • 3月納品可能!GPU搭載ワークステーション
    • AI・データサイエンスおすすめ一覧 >
      • NVIDIA DGX A100
      • DGX STATION A100
      • HP Z8 G4 Workstation
      • HP ZBook Fury17G7 Mobile Workstation
      • Dell Precision 7920 Tower
      • DeepLearning BOXⅡ
      • DeepLearning STATION
      • NVIDIA EGX サーバー
      • HITACHI SR24000
    • 数値計算・解析おすすめ一覧 >
      • HP Z4 G4 Workstation
      • HP Z8 G4 解析ソフトウェア動作確認済みモデル
      • Supermicro 7049GP
    • NVIDIA GPU 一覧 >
      • NVIDIA RTX A6000
      • Quadro RTX8000
      • Quadro GV100
      • NVIDIA A100
      • NVIDIA V100S
      • NVIDIA T4
    • GPUレンタル一覧
    • GPU年定額プラン
  • ストレージ
    • ストレージ一覧 >
      • Synology
      • DDN STORAGE
      • PURESTORAGE
  • HPC
    • HPC Workstation
    • AXXE-L by XTREME-D
    • NVIDIA HPC SDK
    • 高速化受託サービス
  • クラウド製品
    • セキュリティ >
      • KernelCare
    • 仮想化 >
      • Login VSI
      • Login PI
    • リモートアクセス >
      • FastX
      • NiceDCV
      • NoMachine
    • ハイブリッドクラウドNAS >
      • Morro Data
    • クラウドストレージ
  • GPUコラム / 導入事例
    • GPUプログラミング入門 >
      • 第12回:OpenACCを使ったICCG法の高速化
      • 第11回:OpenACCを使ったICCG法の高速化
      • 第10回:OpenACCでできる最適化とは?
      • 第9回:速くならない?とりあえずライブラリに頼ろう!
      • 第8回:OpenACCでも扱えるけど面倒な構造体
      • 第7回:今あるプログラムを楽に速くするためには
      • 第6回:プログラムの実行時間を確認しよう
      • 第5回:コンパイラのメッセージを確認しよう
      • 第4回:拡散現象シミュレーションのOpenACC化
      • 第3回:データ転送の最小化はほとんどのアプリケーションで必須
      • 第2回:その前に知っておきたいGPUの特長
      • 第1回:今あるプログラムを楽に速くするためには?
    • GPU Technology for CG/AI >
      • GPUの起源と進化
      • AlphaGo とその後
      • CUDAを用いたシンプルなパストレーシング
      • 流体シミュレーションの応用
      • GPUを用いた高速レンダリング
      • GPUを基盤としたCG/AIの技術進化
    • ツブ子が聞く・見る・行く! >
      • 見る!NVIDIA RTX A6000
      • 聞く!NVIDIA DGX A100
      • 見る!NVIDIA A100 Tensor Core GPU
    • 導入事例 >
      • DGX SYSTEMS
      • GPU Computing
  • 会社情報
    • ごあいさつ
    • 会社概要
    • アクセスマップ
    • 採用情報
  • お問い合わせ
Picture

GPU 最大4基 搭載可能

HITACHI SR24000/DL1

ディープラーニング研究に特化したモデル
スーパーテクニカルサーバ

Picture
SR24000/DL1の新規出荷は、2020年12月25日を以って終了となります。
※導入済のSR24000/DL1に対するハードウェア保証延長は、2023年3月31日まで継続いたします。

NVIDIA Tesla V100 2基または4基搭載

NVIDIA® Tesla® V100 は、CUDAコアを5,120個搭載し、高スループット性能を実現。
また、新しく採用されたTensorコアにより、ディープラーニングの学習における演算性能で最大120TOPS(Tera Operations Per Second)を発揮します。
​さらに、HBM2(High Bandwidth Memory 2)メモリを採用し、Tesla V100 1基あたり、16GBまたは、32GBのGPUメモリ容量と900GB/sの高速転送を実現します。
Picture
CUDAコア
5120
Tensorコア
640
GPUメモリ
16 GB / 32 GB HBM2
メモリバンド幅
900 GB/sec
単精度演算性能
15.7 TFlops

CPUは高性能IBM POWER9 採用

最大80スレッド同時実行可能な最新鋭IBM POWER9を2個搭載。1ノードで40コアのSMP(Symmetric Multi Processor)構成を実現。
主記憶には、メモリ転送速度 341 GB/sと高速のDDR4メモリーを採用し、最大 1 TBを搭載可能。


POWER9は、1コアあたり 256 Kバイトのレベル2キャッシュとCPUあたり120 Mバイトの大容量のオンチップ・レベル3キャッシュを搭載し、優れた処理性能を発揮します。
NVIDIA NVLink 2.0 効果
NVIDIA Tesla V100  と、IBM POWER9 は、NVLink 2.0により強固に結合。従来のNVLink 1.0から、1.9倍となる 300 GB/s(双方向合計)の高速転送を実現します。
これは一般的なPCI Express Gen3の9.4倍の速度となり、これまでボトルネックとされていたCPUとGPU間のデータ転送を劇的に向上させます。
​さらに、
NVLink 2.0ではハードウェアによるキャッシュコヒーレンスを実装しTesla V100とPOWER9のメモリ空間が完全に一体となります。
Picture
Picture
Picture

ディープラーニング向けソフトウェア

ディープラーニングおよび科学技術計算の研究、利用に相応しいLittle Endianの64bit Linux OSをサポート。

最新のNVIDIA CUDA9、cuDNNなど、ライブラリ類、ドライバもサポートします。
​IBM PowerAIでは、主要なディープラーニングフレームワークを提供し、TeslaシリーズとPOWERシリーズに最適化された環境を利用可能です。

画像解析ツール「IBM® PowerAI Vision」

ディープラーニング画像解析を簡単・迅速に、オンプレミス環境に導入して、業務改善や新事業創出に活用できます。
※ HITACHI SR24000/DL1の有償オプションです。
​PowerAI Vision の評価版もありますので、お気軽にお問い合わせください!
■ ディープラーニングを駆使した画像分類、物体検知、領域分割(セグメンテーション)、行動検知など最新の画像解析を簡易に迅速に実行、検証可能。これまでデータサイエンティストやAI専門家の不足に悩まれた実務者にお勧めです。

■ ディープラーニングのモデル開発において重要となる学習データを自動生成するオートラベリング機能やデータ拡張機能が充実。モデル開発の期間を短縮し、正解率を向上させます。また、画像分類ではヒートマップ機能で判定根拠を確認できます。

​
■ ツールはブラウザのGUIベースで容易に操作が可能です。学習用の画像データの取り込みからモデル開発、評価まで統合された環境で開発、評価、管理ができます。

​■ 実行環境として日立のディープラーニングモデルSR24000モデルDL1を採用。搭載するIBM POWER9とNVIDIA Tesla V100 は、NVLinkにより直結され、高速なデータ転送が可能。画像解析など大規模なデータ解析に能力を発揮します。
Picture
ベルトコンベアを流れる動画から小包の種類やサイズで区分し物体検出
HITACHI SR24000/DL1 ディープラーニングシステム
教育機関向け価格もあります。お気軽にお問い合わせください。​
  Tesla V100 16GB 4基 搭載モデル Tesla V100 32GB 4基 搭載モデル
参考価格 *税抜 5,730,000 円 6,200,000 円
GPU NVIDIA Tesla V100 16GB × 4基  NVIDIA Tesla V100 32GB × 4基 
GPUメモリ 64GB(16GB×4) 128GB(32GB×4)
CPU IBM POWER9 2.4-3.0GHz(Total 40コア,1ノードあたり)
メモリ Total 512GB DDR4
SSD 1.92TB SATA SSD × 2 ※HDDに変更可能
PCIスロット本数 PCI Express Gen4(x16),LP:2
PCI Express Gen4(x16またはx8),LP:1
PCI Express Gen4(x4),LP:1
OS Ubuntu Server 18.04 LTS
最大消費電力 2,500W
電源仕様 電圧:200-240V 電源コードプラグ/必要レセプタ:C20/19 2本
保守 ハードウェア1年間センドバック保守 ※オンサイト保守への変更や保守期間延長にも応じます。
サイズ・重量 幅 443mm × 奥行 850mm × 高さ 86mm ・ 30kg
※ソフトウェアインストール費用、設置費用、送料が別途かかります。

◆学習支援サポート(別途有償)
ディープラーニング学習の内容について、ヒアリングを行ない、データ加工、学習エンジンの実装、パラメータサーベイの実装など、
お客様のデータを使って、ディープラーニングの学習開始を支援します。

AI・データサイエンス 向け
GPU搭載マシン

一覧はこちら

数値計算・解析 向け
GPU搭載マシン

一覧はこちら

NVIDIA GPU
​販売

一覧はこちら

NVIDIA GPU
​レンタル

一覧はこちら

お気軽にご相談ください!

製品に関するご質問・ご相談など、お気軽にお問い合わせください。
​
NVIDIA認定のエリートパートナー「GDEPソリューションズ」は、
​ お客様の用途に最適な製品のご提案から導入までサポートします。
お問い合わせフォーム
Picture
GDEPソリューションズ株式会社
東京都文京区本郷三丁目34番3号 本郷第一ビル8階
TEL:03-5802-7050
・NVIDIA認定 Elite Partner [最上位レベル]
・NVIDIA Advanced Technology Program 達成  [DGX 販売資格]
・東京都公安委員会 古物営業許可番号
 第305471905562号
≫ 新着情報
​

GPU製品
≫ 3月納品可能!GPU搭載ワークステーション
≫ AI・データサイエンスおすすめ
≫ 数値計算・解析おすすめ一覧
≫ NVIDIA GPU一覧

≫ GPUレンタル一覧
≫ GPU年定額プラン

HPC
≫ HPC Workstation
≫ AXXE-L by XTREME-D
≫ NVIDIA HPC SDK
≫ 高速化 受託サービス
​ストレージ
​≫ ストレージ一覧

クラウド製品
​≫ セキュリティ
≫ 仮想化
≫ リモートアクセス

≫ ハイブリッドクラウドNAS

​GPUコラム/導入事例
≫ GPUプログラミング入門
≫ GPU Technology for CG/AI
≫ ツブ子が聞く・見る・行く
≫ 導入事例
会社情報
≫ ごあいさつ
≫ 会社概要
≫ アクセスマップ
≫ 採用情報
​
≫ お問い合わせ
​
≫ 個人情報の取扱いについて
≫ 利用規約
©2020 GDEP Solutions,Inc.
  • Home
    • 新着情報一覧
    • GPU2020 開催概要 >
      • Day1-AI&GPU
      • Day2-ImagingAI
      • Day3-GPUスパコン
      • 過去開催 GPU2019
  • GPU製品
    • 3月納品可能!GPU搭載ワークステーション
    • AI・データサイエンスおすすめ一覧 >
      • NVIDIA DGX A100
      • DGX STATION A100
      • HP Z8 G4 Workstation
      • HP ZBook Fury17G7 Mobile Workstation
      • Dell Precision 7920 Tower
      • DeepLearning BOXⅡ
      • DeepLearning STATION
      • NVIDIA EGX サーバー
      • HITACHI SR24000
    • 数値計算・解析おすすめ一覧 >
      • HP Z4 G4 Workstation
      • HP Z8 G4 解析ソフトウェア動作確認済みモデル
      • Supermicro 7049GP
    • NVIDIA GPU 一覧 >
      • NVIDIA RTX A6000
      • Quadro RTX8000
      • Quadro GV100
      • NVIDIA A100
      • NVIDIA V100S
      • NVIDIA T4
    • GPUレンタル一覧
    • GPU年定額プラン
  • ストレージ
    • ストレージ一覧 >
      • Synology
      • DDN STORAGE
      • PURESTORAGE
  • HPC
    • HPC Workstation
    • AXXE-L by XTREME-D
    • NVIDIA HPC SDK
    • 高速化受託サービス
  • クラウド製品
    • セキュリティ >
      • KernelCare
    • 仮想化 >
      • Login VSI
      • Login PI
    • リモートアクセス >
      • FastX
      • NiceDCV
      • NoMachine
    • ハイブリッドクラウドNAS >
      • Morro Data
    • クラウドストレージ
  • GPUコラム / 導入事例
    • GPUプログラミング入門 >
      • 第12回:OpenACCを使ったICCG法の高速化
      • 第11回:OpenACCを使ったICCG法の高速化
      • 第10回:OpenACCでできる最適化とは?
      • 第9回:速くならない?とりあえずライブラリに頼ろう!
      • 第8回:OpenACCでも扱えるけど面倒な構造体
      • 第7回:今あるプログラムを楽に速くするためには
      • 第6回:プログラムの実行時間を確認しよう
      • 第5回:コンパイラのメッセージを確認しよう
      • 第4回:拡散現象シミュレーションのOpenACC化
      • 第3回:データ転送の最小化はほとんどのアプリケーションで必須
      • 第2回:その前に知っておきたいGPUの特長
      • 第1回:今あるプログラムを楽に速くするためには?
    • GPU Technology for CG/AI >
      • GPUの起源と進化
      • AlphaGo とその後
      • CUDAを用いたシンプルなパストレーシング
      • 流体シミュレーションの応用
      • GPUを用いた高速レンダリング
      • GPUを基盤としたCG/AIの技術進化
    • ツブ子が聞く・見る・行く! >
      • 見る!NVIDIA RTX A6000
      • 聞く!NVIDIA DGX A100
      • 見る!NVIDIA A100 Tensor Core GPU
    • 導入事例 >
      • DGX SYSTEMS
      • GPU Computing
  • 会社情報
    • ごあいさつ
    • 会社概要
    • アクセスマップ
    • 採用情報
  • お問い合わせ