講演概要

6月13日(水) 14:30-15:50

CA-03

Deep Learning基盤の構築と運用
~大規模化への道しるべ~

  • 概要
    Deep Learning(深層学習)は、大量の計算能力を必要とするタスクです。とくにスケールの大きな深層学習においては、従来に比べてさらに巨大な計算能力を連携させて投入する必要があります。その際、単にGPUだけに注目していたのでは、大規模化には追従できないことが判っています。そのため、その周辺部をも含め最適化した専用の計算機クラスタ(スーパーコンピュータ)を構築し、計算能力の限りを尽くそうとする試みが行われています。

    本講演では、そうしたスーパーコンピュータである『MN-1』の初期の運用から学んだ経験から,大規模並列深層学習のための計算機基盤のあり方についてお話しします。旧来からのスーパーコンピューターエンジニアに、再脚光を浴びるチャンスが訪れたのかもしれません。

    『MN-1』:
    Preferred Networks が占有利用するプライベート・スーパーコンピュータ。LINPACK性能約1.39ペタFLOPS。スーパーコンピュータ性能ランキングで、産業領域で世界12位・国内1位、研究用などを含めたすべてにおいて世界91位・国内13位(2017年11月、http://www.top500.org)。
    NTTコミュニケーションズとNTTPCコミュニケーションズによる高速演算処理 (GPU) プラットフォームで稼働。計算ノードはNVIDIA(R) Tesla(R) P100GPU 1,024基。Mellanox社製 Infiniband インターコネクトの活用で、Preferred Networksが開発する分散深層学習パッケージChainerMN (チェイナー・エムエヌ)による高速な分散深層学習も可。
    ● 『MN-1』の初期の運用から学んだ経験、今後の展望
    ● 大規模並列深層学習むけの、計算機基盤のあり方
  • 講演者
    ■チェア
    土井 裕介
    (株)Preferred Networks
    ■スピーカー
    渡辺 晃平
    NTTコミュニケーションズ(株)
    クラウドサービス部
    ■スピーカー


    ■スピーカー


    ■スピーカー


    ■スピーカー


    ■スピーカー


    ■スピーカー


    ■スピーカー


    ■スピーカー


このページの先頭へ