orangeitems’s diary

クラウドで働くインフラエンジニアの日々の感想です(ほぼ毎日更新)。

ファイルサーバーの憂鬱

f:id:orangeitems:20200606181205j:plain

 

誰でも知っているファイルサーバー

世の中で一番使われている業務システムは何ですか?って言われたら、私は真っ先に「ファイルサーバーです」と言いたいです。システムを構築するのは大変なので今はSaaSなどクラウド上ですぐに使える仕組みが流行していますが、会社に行けば必ずファイルサーバーはあるでしょう。しかも一つだけではなく複数あるのがほとんどだと思います。

ファイルサーバーは特に大げさな設定は不要で、ファイル共有し権限を設定すれば利用を開始できますから気軽に運用を開始できます。

本来は基幹システムを導入すべきだけど、とりあえず共有のエクセルファイルを置いてここにデータを保管しよう、なんていう具合に始め、利用が本格化したらいおいよシステム投資するか、みたいな順番で話は進むことが多いでしょう。

ファイルサーバーは業務でよく使われるのですが、まあ、このファイルサーバー。かなり困った性格を持ち、この手の仕事が来ると少し憂鬱になるのです。

とにかく人間は、ファイルサーバーに何でもかんでもぶちこもうとする。もしルールも何もなく、複数の人間で使い始めようものなら五年後十年後カオスになっています。組織において人は入れ替わり、部門長含め文化は変わっていくのですが、ファイルサーバーの中身は変わりません。ですから、過去のファイルサーバーのルールが現状と合わなくなった時に、使い方を途中で変えるのですが変えたら変えたで古参の人がブーブー言い出す。両立できるようにフォルダを区分けしたら、あっちに保管されたりこっちに保管されたり。大昔にSESとして会社を何個かハシゴしましたが、混乱して毎日終電みたいになっている職場ほど、ファイルサーバーの状況もぐちゃぐちゃでした。

また、ひとり情シスの人で、とても仕事が属人化している上に稼働が高くて、その上いつも不機嫌で、そんな人のヘルプをしたことがあるのですがファイルサーバーが見事にカオスでした。仕事がとっちらかると多分ファイルサーバーも乱れます。

ファイルサーバーは、今はクラウド型、OneDriveとかBoxとかGoogle Driveとかいろいろ出てきていますが本質は同じだと思います。仕事がとっちらかることとファイルサーバーが取っ散らかることはほぼ同じ時期に起こります。

 

保守が難しい

ファイルサーバー自体のストレージ容量、保管できるファイルサイズですが年々大きくなっています。ディスク一本の最大サイズが今14TBまで来ています。

 

TOSHIBA 東芝 3.5" 内蔵HDD 14TB 7,200rpm SATA 24x7 RVセンサ搭載 ヘリウム充填 NASに最適ハードディスク3年保証 国内サポート対応 MN07ACA14T

 

14TBって正気かっていう容量です。

ストライピングしてRAID5/6/10などで数十TBの構成も可能になっています。

でも、これ、どうやってバックアップ取るんでしょうか。

利用者は簡単に言うんです。バックアップソフトを使って、フルバックアップを取り、あとは差分・増分バックアップを取ればいい、と。

いや、それは甘い。

差分、増分を調べるだけでアホみたいに時間がかかるんです。

一本14TBだとして、14TBのファイル情報を読み込むだけで相当時間がかかる。

わざわざ計算しませんが、14TBのデータをネットワーク転送しようものなら、バックアップだけで数日かかる。クラウドになんてもってのほか。

まだファイルサーバーが数百GBくらいの時代の感覚で、よく簡単に言われるんです。バックアップ取ればいいよね、と。取れませんから。

で、何か起きたら、数十分前のファイル無くなっちゃうの!?なんて言われても、そもそもバックアップに数日かかるっちゅうねんという話です。

ちなみに、Windows Serverに詳しい方だとボリュームシャドウコピーの話が浮かぶでしょうが、それはバックアップとは呼べません。ディスクが破損したら対処できません。RAID構成は壊れないのでは?、という質問に対しては、いや、壊れるときは壊れます。これはここではあまり語りませんが、例えサーバーの置いてある場所が災害で壊れてもファイルはどこかに保管されているのが理想です。

十数TBとかっていうのは、ほんと保守しにくい量です。

 

消極的な解決方法

現実的には、ファイルサーバーのファイル自体を外部サーバーにレプリケーションしておくのが一番いいんだろうなと最近は思っています。

バックアップするのではなく、本番ファイルサーバーと同じ状態で複製を作っておく。複製することそのもののコストは、バックアップより小さいと思います。即時に複製を反映するので、少しずつ反映できますから。

できれば複製は、本番のファイルサーバーとは別の場所にあり高速のネットワークでつながっていると素敵ですね。

まぁ、そうやってなんとか知恵でしのいでますけど、そもそもさー、っていうところに行きつくことがあります。

ファイルサーバーに保管されるものって、たいていエクセルやワードのファイルですよね。やったら人々は、「ファイル」で何とかしようとします。この「ファイル」というのはデータベースとしては貧弱で、同じようなデータがたくさん重複しています。2010_業務のやりかた.docxというファイルがあったと思えば、2019_マニュアル_業務関連.xlsxというファイルがあったりして、昔のアルバムのように歴史をつないでいたりします。で、仕事の仕方もまだまだ「ファイル中心」になっている。単に紙を、ファイルにしただけになっている。これをデジタル化と思っている人が非常に多い。そして、それをRPAなどを利用して、強引に自動化するような省力化が大変今、増えていることを知っています。

多分、この、ファイルサーバー中心のITの仕事の仕方を変えていかないと、多分にファイルサーバーの憂鬱は晴れないんじゃないかと思っています。

人々は、また、明日も無駄にファイルを作り、そして要らないファイルを後生大事に保管し、そしてファイルサーバーの容量はまた太っていく。そして情シスがバックアップに困る。

世の中が、ファイルサーバーを中心とした古いスマートではないITの使い方をやめるのか、それとも10TBクラスのデータを一瞬で外部に転送する技術が生まれるのか。

何しろ憂鬱が晴れる日がくればいいな、と思います。