ハードウェアの利用効率・経済性だけで、インフラ基盤を選んではいけない

f:id:orangeitems:20220208094039j:plain

 

インフラ基盤について、経済性ばかりが優先する時代がありました。

システムがまず前提にあり、それを構成するOSがあり、OSは仮想化されているので仮想化基盤があり、それを動かすハードウェアがあり・・。インフラのないシステムはないので必ずハードウェアの議論になるのですが、この稼働率の計算方法の話です。

仮想化基盤においてどんなOSを動かすにしろ、CPUとメモリー、そしてストレージという3大リソースがあります。もしシステムに対して過大なハードウェアを用意していたら、それは無駄遣いと判断される風潮がありました。

この状況でオンプレミスやらプライベートクラウドやらといった環境においては、システム自体がアクティブな時間帯は限られるので、かなりの時間がアイドル状態ということになります。CPU使用率という最も見えやすい数値で言えば、10%そこそこなのはザラです。

これを悪用(?)して、CPU使用率が100%に近づけないとハードウェアの無駄遣いという乱暴な議論が存在しました。仮想化基盤がどう進化したかというと、もしCPU使用率が忙しいOSが存在したら、空いているハードウェアに移してやるというものです。仮想化基盤は複数のハードウェアをまとめて、クラスタと呼び、このクラスタの中でOSを動的に動かして全体として平滑化しよう、という技術が一般的です。

時間当たりの平均CPU使用率をできるだけ高めていこうとすれば、OSが少ないとこの融通ができにくいと言うことになります。また、同じシステムは同時にCPU使用率が上がりますから、いろんな種類のシステムを仮想化基盤に置いてやれば、調整がやりやすくなります。システムAは昼間、システムBは夕方、システムCは深夜、という状態なら、同時に全システムがCPUを奪いに来ることはないので非常にシステム効率は良くなるということになります。

・・・という議論を延々とやっていたのは昔の話です。上記を踏まえると、とにかく市場シェアを奪いどんどんOSを載せていけばいいという極論がなりたってしまい、結局はパブリッククラウドが寡占状態を作り、ハードウェアの稼働率を上げた上で、かつハードウェアを大量調達しコストを下げていく。現在ではパブリッククラウドは寡占状態ともいえる状態となってしまいましたね。

もっと言えば、CPUだけではなくネットワークトラフィックも同じことが言えます。たくさんのシステムを集める、そしてグローバルに集めることで、24時間のネットワークトラフィックを平滑化できるのでこれも経済的です。ある限られた時間だけのトラフィックのために帯域を準備するのはコストがかかるからです。

こうやって考えていくと、寡占ができたクラウドを使うのが最も経済的・・という議論になるのは至極当然です。システム運用が安定していればなおのこと、です。

一方、この考え方で抜けているのは、ストレージの部分です。ストレージ自体をどこに置くか。誰が保管し、どう機密性を担保しているか。

これは「経済的」だけでは測れません。計算能力とは全く別の議論です。

いくら安全です、と運営者が叫んでも、その保管されている場所が日本国内ではなかったり、権利を持っている団体が日本資本ではなかったり、そして無断で外国につながっていたり。もしくは外国人が不要にアクセスしていたりと、この安全性に対する議論が置き去りとなっていたのが現実です。

経済的ではなくても、国内じゃないといけない。そしてそのデータは国外に移転してはならない。そしてアクセスする権限も厳しく管理しなければいけない。

この議論が急激に高まり、インフラはとかく利用効率・経済性ばかりが強調されていたのですが、完全に風向きが変わったと言えます。

一部には、その地域でのサービスがもはやできない、という話まで現実化しつつあります。

 

www.nikkei.com

米メタ(旧フェイスブック)は7日までに、欧州連合(EU)の規制次第では欧州でのサービス継続が難しくなるとの見方を示した。EUは米IT(情報技術)大手への締め付けを強めている。米国へのデータ移管ができなくなれば事業継続は難しく、フェイスブックやインスタグラムなどSNS(交流サイト)が使えなくなると訴えた。

 

データの内容によって、経済性を犠牲にしてでもシステム構成を変えなければいけない、そんな時代に差し掛かったことは心に留めておく必要があります。