【新連載】ITアーキテクトのひとりごと
第11回 「今こそ、ストレージ・ガバナンスを考える時代だ」

某社のメルマガを見て、ちょっとチェックしておこうかな、とダウンロードしたホワイトペーパーには、毎月1900Tバイトをバックアップしているとある。 1900Tバイト!と言うと2ペタ・バイト。ほんまかいな、と思ったが、サーバが6500台もあれば、1台平均ではたったの300Gバイトしかない。何だ大したこと無いな。そもそも6500台もバックアップしないといけないサーバがあるのがいけない。正社員数は1万1千人強。実際の社員数はもっと大いにしても、数人に1台のサーバがある。

これだけジャブジャブにサーバがあれば、然るべきIT投資の費用対効果はこれこれしかじか、よってIT投資には意味があるという結論を出すのは簡単だ。このサーバ台数とバックアップしているデータ量を知ったCIOは、きっと、ビックリたまげたとは思うが、バックアップを考える前に、そもそもこんな状態になるまで放っておいたことは誰の責任なのか。前任者の責任なら、このCIOは心おきなく簡単に自分の成果をアピールすることができてラッキーだ。バックアップの問題を解決した次のプロジェクトは、資産管理ツールの導入だ。自動でモニタリングするようなツールを入れられたら隠しておけない。ワークグループ単位で勝手にやれと言われて、こんなにサーバが増殖してしまったというのが実情だろうが、そもそもそんなことを言っていたのは、どこの誰だっけという責任のなすりあいが起こるのは目に見えている。ツールの導入よりも、そもそもITガバナンスができていないことが露見しているので、その辺りから引き締めないといけないのかも知れない。

さて、「こうなってからじゃ遅い」と思ったけれども、世の中にはいろんな良いツールがあった、めでたしめでたし、というのが、このホワイトペーパーの落ち(ちょっと皮肉っぽいけど)だが、私も、このホワイトペーパーの落ちにあやかりたい。実は、なんだかんだと800Gバイトくらいのデータを個人持ちしていることが判明しているからだ。データ量を計算するのに、資産管理ツールなんて高級なものはいらない。12桁電卓をパチパチっと、十数秒で計算できてしまった。

問題なのは重々むかしから理解しているが、何ともならない。重複排除技術を使うと数分の一にデータは減るが、バックアップという用途を考えると、もう少しデータ圧縮率は落ちる。まあいいか、なんて言っていると、某社のホワイトペーパーのような事態になる。。。

おっとっと、身近に危険は転がっている。

それにしても、とうとう2TバイトのSATAディスクも出てきた。そして、3200Gバイトのテープバックアップ装置なんて言う話題も出てきたので、データ量には驚かない("3200Gバイト"なんてわざわざ書くところがイヤらしい)。だんだんとデータ量を表す数値に対して鈍感になってきているが、お客さまの抱えるデータをバックアップしないといけないという現実に直面し、電卓を叩いてバックアップ時間を計算してみるとビックリ。数TバイトのRAIDを気軽に買える時代になったけど、バックアップは "気軽に" とはいかないらしい。

なんとなくフィーリングにギャップを感じる。「1台あたり300Gバイトしかデータがない」と言っているけど、ちょっと前までは、こんなにディスクが大きいなんて信じられなかった。ほんの数年前までは1台数Gバイトのディスクがなんとか生き残っていたのに。何となく現実感が無い、このフィーリングのギャップが、いつの間にか毎月1900Tバイトをバックアップしないといけないような事態を招いてしまったのだ。

いまこそ、ストレージ・ガバナンスを考える時代だ。ツールは任せろ!

JDSF データ・マネジメント・ソリューション部会
株式会社エクサ 恋塚 正隆
リンクが張られていない、タイトルだけの記事は、最新号のメルマガ記事です。次回 のメルマガが配信された時点で記事にリンクが張られます。メルマガ登録すると次回 から最新記事を読むことができます。メルマガ登録は無料、非会員でも登録できます。登録はこちらから