GDEP Solutions, Inc.
  • Home
    • 新着情報一覧
    • GPU2020 開催概要 >
      • Day1-AI&GPU
      • Day2-ImagingAI
      • Day3-GPUスパコン
      • 過去開催 GPU2019
  • GPU製品
    • AI・データサイエンスおすすめ一覧 >
      • NVIDIA DGX A100
      • DGX STATION A100
      • HP Z8 G4
      • HP ZBook Fury17G7 Mobile Workstation
      • Dell Precision 7920 Tower
      • DeepLearning BOXⅡ
      • DeepLearning STATION
      • NVIDIA RTX サーバー
      • HITACHI SR24000
    • 数値計算・解析おすすめ一覧 >
      • HP Z4 G4
      • Supermicro 7049GP
    • NVIDIA GPU 一覧 >
      • NVIDIA RTX A6000
      • Quadro RTX8000
      • Quadro GV100
      • NVIDIA A100
      • NVIDIA V100S
      • NVIDIA T4
    • GPUレンタル一覧
  • ストレージ
    • ストレージ一覧 >
      • Synology
      • DDN STORAGE
      • PURESTORAGE
  • HPC
    • HPC Workstation
    • AXXE-L by XTREME-D
    • NVIDIA HPC SDK
    • 高速化受託サービス
  • クラウド製品
    • セキュリティ >
      • KernelCare
    • 仮想化 >
      • Login VSI
      • Login PI
    • リモートアクセス >
      • FastX
      • NiceDCV
      • NoMachine
    • ハイブリッドクラウドNAS >
      • Morro Data
  • GPUコラム / 導入事例
    • GPUプログラミング入門 >
      • 第11回:OpenACCを使ったICCG法の高速化
      • 第10回:OpenACCでできる最適化とは?
      • 第9回:速くならない?とりあえずライブラリに頼ろう!
      • 第8回:OpenACCでも扱えるけど面倒な構造体
      • 第7回:今あるプログラムを楽に速くするためには
      • 第6回:プログラムの実行時間を確認しよう
      • 第5回:コンパイラのメッセージを確認しよう
      • 第4回:拡散現象シミュレーションのOpenACC化
      • 第3回:データ転送の最小化はほとんどのアプリケーションで必須
      • 第2回:その前に知っておきたいGPUの特長
      • 第1回:今あるプログラムを楽に速くするためには?
    • GPU Technology for CG/AI >
      • AlphaGo とその後
      • CUDAを用いたシンプルなパストレーシング
      • 流体シミュレーションの応用
      • GPUを用いた高速レンダリング
      • GPUを基盤としたCG/AIの技術進化
    • ツブ子が聞く・見る・行く! >
      • 聞く!NVIDIA DGX A100
      • 見る!NVIDIA A100 Tensor Core GPU
    • 導入事例 >
      • DGX SYSTEMS
      • GPU Computing
  • 会社情報
    • ごあいさつ
    • 会社概要
    • アクセスマップ
    • 採用情報
  • お問い合わせ
2017.12
Picture
デエイアイグノシスは現在、AIによる言語系文字分析を実現し、さまざまな分野への展開を進めている。例えばCRM分野では、ネットショップや通信販売のコールセンターにおける対話のテキストデータを分析し、顧客プロフィールをリアルタイムに解析。そこから最適な対応を導き出すことでオペレーター業務のサポートを可能にするシステムを開発している。

医療分野では、電子カルテなどのさまざまなテキスト情報をディープラーニングで分析し、それをベースとした診断支援を実現するシステムのコアとなるエンジンを開発中である。

​これらのサービスにおいて、情報の精度を高めるためにはより多くのデータを処理する必要がある。その一方で、データが豊富に存在しても、データの処理を最適化するまでの時間がかかり過ぎていてはビジネスと
​して成り立たない。
Picture
デエイアイグノシスのロゴマーク
AIを強く意識していることがうかがえる
「結果の積み重ねが、AIの進化に重要なことは言うまでもないことだ。さらに、それに要する時間をどれだけ短くすることができるか。これも無視することのできない大切なポイントとなる。だからこそ、GPUで膨大な計算を高速に処理できるNVIDIA DGX-1は、AIを使ったサービスに欠かすことのできない存在といえる」(大松氏)

GoogleとNVIDIAの動きからGPUの可能性を感じ取った

大松氏がGPUコンピューティングに関心も持ったきっかけは、2016年に開催された「Google Cloud Platform Global User Conference」にある。
そこで発表された内容や元CEOのエリック・シュミット氏の講演から、「GoogleはいまGPUに注目している」と啓発されたそうだ。
​

さらに同年、NVIDIAがカリフォルニア州サンノゼで開催したイベント「GPU Technology Conference(GTC)」に参加したところ、CEOのジェン・スン・フアン氏が具体的な事例とともにディープラーニング向けの自社製GPUワークステーションを発表した。

​このGoogleとNVIDIAの動きに、大松氏はGPUコンピューティングの可能性をいち早く感じ取ったという。そして、GTCの会場で即座にこのGPUワークステーションの購入を申し込んだ。

Picture
NVIDIA Tesla P100を8基搭載したNVIDIA DGX-1
とはいえ、初期モデルは何かと技術的な要求や課題が多い時期にあるため、自力での対応に苦労を重ねたこともあったとのこと。しかし、大松氏は「それが経験となって後々に生きてくる」と語り、他社よりも先んじて先進的な取り組みに対応することの重要性を指摘する。
​
実際、大松氏は現在のようにAIに注目が集まる前からGPUをベースとしたコンピューティングに携わってきたことで、豊富な知識とノウハウを身につけてきた。そのため、ハードウェアの準備やベースとなる部分のセッティングはベンダーに任せるものの、システム構築のほとんどを自社でこなすまでに至っている。

​そのレベルの高さは、NVIDIA DGX-1の提供元であるNVIDIAの山田泰永氏も一目置くほどだ。


​「近年はAIのビジネス利用が広まったことで、ディープラーニング向けを標榜するサーバーが数多く登場しているものの、それを自分の手足のように扱える人材はそれほど多くない。

​そんななか、デエイアイグノシスさんは高性能かつ運用管理が容易なNVIDIA純正のアプライアンスであるNVIDIA DGX-1にいち早く着目して導入。しかも、外部に頼ることなく独自に研究開発を続けている点は『さすが』と言う他はない」(山田氏)
Picture
エヌビディア エンタープライズ事業部 ​マネージャー メディカル・ライフサイエンスビジネス責任者兼スタートアップ・技術パートナー支援担当 山田 泰永 氏

やりたいことを最短で実現できる最強のワークステーション

Picture
デエイアイグノシス株式会社
代表取締役 大松 重尚 氏
日々進化を続けているデエイアイグノシスのテキスト分析は、現在コールセンターや医療診断支援の分野への活用が期待される。

​概念的には、コールセンターのやり取りや患者のカルテなどから対話テキストを取り出し、そこに意味や価値を持たせているイメージだ。「今後は、これに時間で変化する途中経過の情報なども追加できれば、時系列を先取りした予測なども可能となるだろう」(大松氏)
このようにデータ量が増えていけば、それだけ情報の裏付けも取りやすくなるため価値は上がっていく。その一方で、機械学習の負荷は
より一層増すことになるだろう。そのため、仮に価値が上がったとしても、そのための計算時間が数か月もかかるようでは問題だ。

その点、NVIDIA DGX-1のような高性能ワークステーションがあれば心配はいらない。大松氏も「NVIDIA DGX-1ならプログラム次第で大規模な計算でも数時間、簡単なものなら数分で終わる」と太鼓判を押す。さらに「次のことをどんどん進めていかないと可能性は広がらない。いま進んでいる方向が間違っている可能性もあるため、スピード感は重要だ」とその必要性を後押しする。
そのほか、NVIDIA DGX-1はハードウェアやOSに加えて、仮想環境のNV-Dockerや「TensorFlow」「Caffe」「CNTK」「Theano」「MXNet」といったディープラーニング関連のフレームワークを動作確認済みで用意する。
トータルコーディネートされた形で提供されるため、運用面でのメリットは大きい。

​また、デエイアイグノシスでは仮想環境での複数ジョブ管理において「コンテナごとに利用するGPUを手動で指定している」(大松氏)のだが、NVIDIAの山崎和博氏は「例えば、Apache Mesosは複数GPUのジョブ管理に対応している」と助言し、さらなる効率的な運用をサポートする。
Picture
エヌビディア ディープラーニング ソリューション アーキテクト ​山崎 和博 氏
​とはいえ、オンプレミスで高性能なGPUワークステーションを持つことは容易ではない。そのため、Googleなどのクラウドサービスを活用してやる方が「当座のメリットは高い」という考え方もあるだろう。しかし、大松氏の考えは違う。

​「計算のプロセスと結果だけが早くわかっても、それは我々の開発思想にフィットしない。処理工程の中身をしっかり把握して理解することが重要であり、それが次のプログラミング開発に生かせるからだ。その上で、クラウドサービスともやり取りが容易になる。

​そういった意味でも、GPUワークステーションは重要な存在だと認識している。総合的に見て、我々のやりたいことを最短で実現してくれる最強のワークステーションはNVIDIA DGX-1に他ならない」(大松氏)

DGX ユーザー 導入事例 PDFファイル
Download

デエイアイグノシス株式会社 様
Picture
他の事例を見る ≫
Picture
GDEPソリューションズ株式会社
東京都文京区本郷三丁目34番3号 本郷第一ビル8階
TEL:03-5802-7050
・NVIDIA認定 Elite Partner [最上位レベル]
・NVIDIA Advanced Technology Program 達成  [DGX 販売資格]
・東京都公安委員会 古物営業許可番号
 第305471905562号
≫ 新着情報
​

GPU製品
≫ AI・データサイエンスおすすめ
≫ 数値計算・解析おすすめ
≫ NVIDIA GPU一覧

≫ GPUレンタル一覧

HPC
≫ HPC Workstation
≫ AXXE-L by XTREME-D
≫ NVIDIA HPC SDK
≫ 高速化 受託サービス
​ストレージ
​≫ ストレージ一覧

クラウド製品
​≫ セキュリティ
≫ 仮想化
≫ リモートアクセス

≫ ハイブリッドクラウドNAS

​GPUコラム/導入事例
≫ GPUプログラミング入門
≫ GPU Technology for CG/AI
≫ ツブ子が聞く・見る・行く
≫ 導入事例
会社情報
≫ ごあいさつ
≫ 会社概要
≫ アクセスマップ
≫ 採用情報
​
≫ お問い合わせ
​
≫ 個人情報の取扱いについて
≫ 利用規約
©2020 GDEP Solutions,Inc.
  • Home
    • 新着情報一覧
    • GPU2020 開催概要 >
      • Day1-AI&GPU
      • Day2-ImagingAI
      • Day3-GPUスパコン
      • 過去開催 GPU2019
  • GPU製品
    • AI・データサイエンスおすすめ一覧 >
      • NVIDIA DGX A100
      • DGX STATION A100
      • HP Z8 G4
      • HP ZBook Fury17G7 Mobile Workstation
      • Dell Precision 7920 Tower
      • DeepLearning BOXⅡ
      • DeepLearning STATION
      • NVIDIA RTX サーバー
      • HITACHI SR24000
    • 数値計算・解析おすすめ一覧 >
      • HP Z4 G4
      • Supermicro 7049GP
    • NVIDIA GPU 一覧 >
      • NVIDIA RTX A6000
      • Quadro RTX8000
      • Quadro GV100
      • NVIDIA A100
      • NVIDIA V100S
      • NVIDIA T4
    • GPUレンタル一覧
  • ストレージ
    • ストレージ一覧 >
      • Synology
      • DDN STORAGE
      • PURESTORAGE
  • HPC
    • HPC Workstation
    • AXXE-L by XTREME-D
    • NVIDIA HPC SDK
    • 高速化受託サービス
  • クラウド製品
    • セキュリティ >
      • KernelCare
    • 仮想化 >
      • Login VSI
      • Login PI
    • リモートアクセス >
      • FastX
      • NiceDCV
      • NoMachine
    • ハイブリッドクラウドNAS >
      • Morro Data
  • GPUコラム / 導入事例
    • GPUプログラミング入門 >
      • 第11回:OpenACCを使ったICCG法の高速化
      • 第10回:OpenACCでできる最適化とは?
      • 第9回:速くならない?とりあえずライブラリに頼ろう!
      • 第8回:OpenACCでも扱えるけど面倒な構造体
      • 第7回:今あるプログラムを楽に速くするためには
      • 第6回:プログラムの実行時間を確認しよう
      • 第5回:コンパイラのメッセージを確認しよう
      • 第4回:拡散現象シミュレーションのOpenACC化
      • 第3回:データ転送の最小化はほとんどのアプリケーションで必須
      • 第2回:その前に知っておきたいGPUの特長
      • 第1回:今あるプログラムを楽に速くするためには?
    • GPU Technology for CG/AI >
      • AlphaGo とその後
      • CUDAを用いたシンプルなパストレーシング
      • 流体シミュレーションの応用
      • GPUを用いた高速レンダリング
      • GPUを基盤としたCG/AIの技術進化
    • ツブ子が聞く・見る・行く! >
      • 聞く!NVIDIA DGX A100
      • 見る!NVIDIA A100 Tensor Core GPU
    • 導入事例 >
      • DGX SYSTEMS
      • GPU Computing
  • 会社情報
    • ごあいさつ
    • 会社概要
    • アクセスマップ
    • 採用情報
  • お問い合わせ