インタビュー

データセンター向け水冷サーバ「Triton」に見るDellのアプローチ

この記事を読むのに必要な時間:およそ 5 分

Dellは今から1年ほど前,2016年6月に液冷のラックサイズのサーバシステム「Triton」写真1を発表しました※1)⁠eBay向けのサーバとしても話題になったので,コンクリート壁の部屋に置かれたラックの写真を覚えている人も多いでしょう。

写真1 ラボに設置されていたTritonラック

写真1 ラボに設置されていたTritonラック

筆者はこの記事を読んで,それがDellの自社開発であることに興味を持ちました。Dellがサーバ向けの尖った技術開発で目立った記憶と言えば,まず2010年のFlexMem,つまりXeonプロセッサのソケットに装着するQPIインターフェースのメモリコントローラ※2です。

しかしそれ以外の事例はあまり記憶になく,どちらかと言うとDellは「標準技術を採用する」会社という印象があります。

それがデータセンター事業者向けに独自開発を行い,eBayのような大規模ユーザが採用したと聞けばとても興味が湧きます。幸いにも2017年の3月末に米国のDell本社でTriton開発スタッフに取材する機会が得られ,Tritonの技術的な概要,その開発経緯やアプローチについて興味深い話を伺うことができました。

答えてくれたのはAustin Shelnutt氏です。肩書きはDell EMCのESI(Extreme Scale Infrastructure)⁠Principal Thermal Development Managerとなっており,部署名もタイトルも思い切り今回のTritonサーバシステムに絞り込んだ感じです。

Dell EMC, ESI(Extreme Scale Infrastructure), Principal Thermal Development ManagerのAustin Shelnutt氏

Dell EMC, ESI(Extreme Scale Infrastructure), Principal Thermal Development ManagerのAustin Shelnutt氏

DELL本社,Building 1

DELL本社,Building 1

※1)
"The Unveiling of a Revolutionary New Liquid Cooling Technology"(2016/6/2)
※2)
"仮想化が変えるサーバ。デルのメモリ容量拡張技術「FlexMem Bridge」はダミープラグ方式"(2010/4/8)

ESIチームのはじまり

Austin氏にはまずその開発の経緯を伺いました。

Austin(以後単にA)⁠2009年から我々はHome-brew(自家製)の設計を始めました。ハイパースケールと呼ばれるようなカスタマと一緒にです。彼らはエネルギー消費効率に関係するとても大きな設備を使っていました。ファン,冷却塔,チラー,なんにせよすべてパワー(電力)が必要です。そこで彼らはいろんな空冷システムの工夫をしていました。

しかし空冷での冷却効率には限度があるわけで,次に大きな飛躍,その余地があるのは水冷でした。何しろ体積あたりの冷却能力が空気に対して4,000倍もあります。これは大げさな数字ですが,現実レベルでもポンプ(水冷)とファン(空冷)について同じ消費電力で出せる冷却能力は20~22倍ほどになります。

また,空冷システムでは十分なエアフローを得るための空間が必要ですが,水冷ならこれを詰めてシステムの実装密度を高めることができます。ハードディスクの有無などによって異なります※3が,ある種の顧客ではラックあたり35KW,最大50KWまで対応可能です。

もちろん水冷は我々が初めてなわけではなく,多くの人が長く取り組んできたことです。その中で我々の1つのチャレンジは,水冷技術をボリューム・サーバ(安価で大量導入を前提とした製品とそのマーケット)に,手ごろな価格で持ち込むことにありました。

つまり空冷で作られてきたボリューム・サーバの上に水冷システムを構築し,それが保守性(serviceability)や製造性(manufacturability,製造の容易さ)の面で大きな混乱・変化をもたらすことがないようにね。空冷で設計されたものと同じようにメンテナンスされるようにしたかったのです。

我々ESI(Extreme Scale Infrastructure)は,以前,DCSつまりData Center Solutionと呼ばれていました。この組織は巨大なカスタマを対象としていますが,これはカスタマ自身がとても大きなボリューム・サーバ領域に進出してきたことに対応したものでした。つまり彼らのエンジニアリングチームを少し拡大して,我々がそこで彼らと連携しながら作業するのです。

すると,彼らは彼ら自身の問題に直接当たれて,サーバの問題についてはとても短いフィードバックのループが作れます。これが一般的な製品ではなく,特定の顧客の問題を解決する製品を作るのにとても有効なのです。

※3)
筐体内にハードディスクを密度高く詰めると風が通りにくくなるので空間を取らねばならない。

現在ハイパースケールと呼ばれるような大規模ユーザは,台湾や中国のODMベンダーと直接やりとりして調達するようになりつつあります。それに対してDellは,顧客のエンジニアリングチームと連携して,より早いサイクルでより強い研究開発力を提供することで自社の競争力を維持しようとしているわけです。

著者プロフィール

安田豊(やすだゆたか)

京都産業大学コンピュータ理工学部所属。KOF(関西オープンフォーラム)やiPhoneプログラミング勉強会などのコミュニティ活動にも参加。京都の紫野で育ち,いまは岩倉在住。せっかく復帰させたCBX 400Fに乗る機会がなく残念な日々を過ごしている。

バックナンバー

2017

コメント

コメントの記入