Quantcast
Channel: 更新情報 --- 研究 | 東工大ニュース | 東京工業大学
Viewing all articles
Browse latest Browse all 2008

東工大のスパコンTSUBAME4.0が来春稼働開始 AI向け演算性能952ペタフロップス、「もっとみんなのスパコン」の実現へ

$
0
0

東京工業大学学術国際情報センター(以下、GSIC)は、次世代スパコン「TSUBAME[用語1]4.0」の来春稼動に向けて構築を開始します。TSUBAME4.0の理論演算性能は科学技術計算で利用される64bitの倍精度[用語2a]で66.8ペタフロップス(Peta Flops)[用語3]、人工知能(AI(Artificial Intelligence)[用語4])などで利用される16bitの半精度[用語2b]では952ペタフロップスの性能を達成する予定です。これは、それぞれの演算精度において現存する国内のスパコンの中ではスーパーコンピュータ「富岳」に次ぐ2位相当となります。これまでのTSUBAMEシリーズと同様に、科学技術計算・ビッグデータ解析・AIなど幅広い分野で積極的に活用してまいります。

TSUBAME4.0 スーパーコンピュータ 完成イメージ図

TSUBAME4.0 スーパーコンピュータ 完成イメージ図

東工大のスパコンであるTSUBAMEシリーズは、2006年4月のTSUBAME1.0稼働以来長年にわたり「みんなのスパコン」として国内外の産学官の研究開発を支えてきました。また、GSICは世界に先駆けてスパコンにGPU(Graphics Processing Unit)[用語5]を採用するなど、最先端のスパコンセンターとして注目されています。GPUスパコンというハードウェアとしての特徴に加え、現在運用中のTSUBAME3.0の導入後も、利用しやすさの改善のためさまざまなソフトウェアの改良を重ねており、これらの技術を昇華させる形でTSUBAME4.0のハードウェア・ソフトウェアの設計を行いました。

今回、TSUBAME4.0の調達に先立ち、東工大すずかけ台キャンパスに新たなスパコン用の建屋を整備し、その導入に備えてきました。TSUBAME4.0の開発にあたって政府調達「TSUBAME4.0スーパーコンピュータ」が実施され、日本ヒューレット・パッカード合同会社(以下、HPE)が落札しました。今後、東工大はHPE、米国NVIDIA社、関連各社とともに構築を進めていきます。

TSUBAMEシリーズは、TSUBAME1.2のTesla、TSUBAME2.0のFermi、TSUBAME2.5のKepler、TSUBAME3.0のPascalと過去においても最新のNVIDIA社製GPUをいち早く採用しており、今回のTSUBAME4.0では最新世代のNVIDIA Hopperアーキテクチャに基づくNVIDIA H100 TensorコアGPU※1をさらに本スパコン向けにチューニングした製品を採用し、高い互換性を確保しています。TSUBAME4.0のGPU数は960台であり、TSUBAME3.0の2,160台と比べて少なくなりますが、高性能なGPUの採用と、GPUの論理分割機構の活用により、前世代機を超える性能・ユーザビリティを達成します。

TSUBAME4.0の構成は今までのTSUBAMEシリーズを継承し、x86_64アーキテクチャのCPUとCUDA(Compute Unified Device Architecture)[用語6]対応GPUからなり、今までのプログラム資産をそのまま使えるとともに、世の中で幅広く使われているアーキテクチャであることから、世界中で開発が行われている最新の計算科学技術をいち早く導入することができる構成となっています。そのうえで、倍精度理論演算性能はTSUBAME3.0の約5.5倍となる66.8ペタフロップス、AI向け性能は同約20倍となる952ペタフロップスとなり、AI学習処理やバイオインフォマティクスをはじめとした幅広いアプリケーションの大幅な加速を実現するとともに、TSUBAME3.0に引き続き仮想化技術を活用することでより多くのアプリケーションを同時に実行することにより、各研究者の計算待ち時間の削減を実現することで、研究の質と生産性の両面での向上を目指します。

TSUBAME4.0のシステムの計算ノード部としてHPE Cray XD6500シリーズのサーバーを240台採用し、各計算ノードは第4世代AMD EPYCプロセッサを2基、NVIDIA H100 TensorコアGPUを4基、768GiBの主記憶、NVIDIA Quantum-2 InfiniBandネットワークインターフェイスを4ポート搭載します。ストレージシステムはCray ClusterStor E1000で構成され、Lustreファイルシステムによってハードディスクベースの共有ストレージ44.2PBとSSDベースの高速ストレージ327TBに接続されるとともに、各計算ノードにも容量1.92TBのNVMe対応高速SSDストレージを搭載。計算ノード及びストレージシステムはInfiniBandによる高速ネットワークに接続され、またSINET6を経由し100Gbpsの速度で東工大すずかけ台キャンパスから直接インターネットに接続されます。

NVIDIAのHPCおよびハイパースケールコンピューティング担当 バイスプレジデント イアン・バック(Ian Buck)氏は、次のように述べています。「NVIDIAのコンピューティング プラットフォームは、AIと
HPC(High Performance Computing)[用語7]のあらゆるスケールでアクセラレーションを促進します。NVIDIA H100 GPU、NVIDIA Quantum-2 InfiniBand、NVIDIAのAIおよびHPCソフトウェアを搭載した東工大のスパコンTSUBAME4.0は、研究者や科学者が世界で最も複雑な課題に取り組むことができ、社会全体に恩恵をもたらす躍進を促すことができるでしょう」

加えて、ユーザの一人である情報理工学院 情報工学系の秋山泰教授は、次のように述べています。「我々の研究グループでは、次世代医薬として期待が集まる環状ペプチド[用語8]創薬の研究にTSUBAMEを活用してきました。『従来の数百倍の計算をすれば現象を再現できるのではないか?』『数百例の網羅的計算を示せば予測能力を定量的に証明できるのではないか?』 研究者も悩むそのような世界初だらけの大胆な挑戦にも、常に相棒になってくれたのがTSUBAMEです。大幅に高速化されるTSUBAME4.0では、さらに大規模な分子シミュレーションと、そこから予測モデルを生み出す深層学習技術の融合により、知的な創薬支援が実現できると期待しています」

TSUBAMEシリーズはこれまで、「みんなのスパコン」として、幅広いユーザ層に潤沢な計算環境を提供してきました。TSUBAME4.0ではこの理念を発展させ、従来型のコマンドライン・バッチスクリプトベースの利用だけではなく、Webアプリケーション経由での利用など、多様化するスパコンの使い方に対応し、特に初学者や幅広い分野の研究者にも使いやすいソフトウェア環境を備えた「もっとみんなのスパコン」として日常的に活用されることを狙います。

TSUBAME4.0が提供する潤沢な計算資源を学内での教育や先端研究での利用にとどめることなく、日本全国の「みんなのスパコン」として学外の研究者や企業の研究開発に提供し続けるのは、我が国のトップ大学の情報基盤センターとしての責務であり、学際大規模情報基盤共同利用・共同研究拠点(JHPCN)や革新的ハイパフォーマンス・コンピューティング・インフラ(HPCI)およびGSICが運営するTSUBAME共同利用制度を通じ、日本の国力向上へ貢献していきます。

このように、TSUBAME4.0は東工大における最先端の科学技術の発展や国際競争力の強化を支えるデジタルインフラであり、東工大および大学統合後の東京科学大学(仮称)が目指す「両大学の尖った研究のさらなる推進」と「コンバージェンス・サイエンスの展開」の両面において必要不可欠なプラットフォームとして、学内外のさまざまな分野・属性のユーザを広く深く結びつけるハブとなり、潤沢な計算資源でその研究・教育を力強く支援し続けます。

注釈

※1 NVIDIA H100 TensorコアGPU:メモリにHBM2e 94GBを採用したモデル

用語説明

[用語1] TSUBAME : 東工大のスーパーコンピュータシリーズに代々つけられている名称。元はTokyo-tech Supercomputer and UBiquitously Accessible Mass-storage Environment の略。

[用語2a] 倍精度 : 整数以外の数値をコンピュータで扱う場合には浮動小数点数が用いられますが、精度を選択することが可能です。科学技術計算では64bitの倍精度が使用されることが多いのですが、32bitの単精度で計算可能な対象も多くあります。半精度はさらにその半分の16bitであり、有効な桁数が減りますがAI分野では十分な精度があります。

[用語2b] 半精度 : [用語2a] を参照。

[用語3] ペタフロップス(Peta Flops) : フロップスは1秒間で何回浮動小数点の演算ができるか、という性能指標で、ギガ(10の9乗)、テラ(10の12乗)、ペタ(10の15乗)など。1ペタフロップスは1秒間に1,000兆回の計算。

[用語4] AI(Artificial Intelligence) : 機械学習などの数理的な手法に基づいて人間の知能を計算機で模倣する技術。その実現のためには莫大な量の計算が必要であり、GPUやスーパーコンピュータの活用が不可欠です。

[用語5] GPU(Graphics Processing Unit) : 本来はコンピュータグラフィックス専門のプロセッサだったが、グラフィックス処理が複雑化するにつれ性能および汎用性を増し、現在では実質的にはHPCおよびAI用の汎用ベクトル演算プロセッサに進化しています。 TSUBAME4.0で用いるのは米国NVIDIA H100 Tensor コア GPU で、1台あたりの性能は67テラフロップス(倍精度行列演算の場合)。

[用語6] CUDA(Compute Unified Device Architecture) : NVIDIAが開発・提供しているGPU向けの汎用並列プログラミング環境。TSUBAME1.2以降、歴代のTSUBAMEではCUDA対応のGPUを使用しています。

[用語7] HPC(High Performance Computing) : 高性能科学技術計算、つまりスーパーコンピューティングの一般名称。

[用語8] 環状ペプチド : 複数のアミノ酸が連なったポリペプチドの末端が何らかの結合で結ばれて環状または投げ縄状になった分子。

発表内容に関するお問い合わせ先

東京工業大学 学術国際情報センター

Email kib.som@jim.titech.ac.jp
Tel 03-5734-2087

日本ヒューレット・パッカード合同会社
カスタマーインフォメーションセンター

Tel 0120-268-186 または 03-6743-6370(フリーダイヤルをご利用できない場合)
受付時間:月曜日~金曜日 9:00 - 19:00
お問い合わせフォーム

取材申し込み先

東京工業大学 総務部 広報課

Email media@jim.titech.ac.jp
Tel 03-5734-2975 / Fax 03-5734-3661

日本ヒューレット・パッカード合同会社
広報担当 八木橋恵理

Email eri.yagihashi@hpe.com
Tel 03-5621-0884(携帯電話に転送)


Viewing all articles
Browse latest Browse all 2008

Trending Articles