orangeitems’s diary

40代ITエンジニアが毎日何か書くブログ

「HPE Cloud Volumes」はマルチクラウドのデータ基盤に使えそう

f:id:orangeitems:20191031080818j:plain

https://www.hpe.com/jp/ja/storage/cloud-volumes.html

 

クラウドストレージ

仕事柄注目しているサービスがありまして、紹介しておきたいと思います。

 

www.itmedia.co.jp

Hewlett Packard Enterprise(HPE)は、AWSやAzure、GCPのどのクラウド内の仮想マシンからでもiSCSIで高速にアクセスできるフルマネージドなブロックストレージサービス「HPE Cloud Volumes」を、日本国内にある同社のデータセンターから提供を開始し、11月1日より販売を開始すると発表しました。

 

仕様の概要

パブリッククラウドの世界はだんだんとプレイヤーが絞り込まれていく過程にありますが、その中でもAWS、Azure、GCPが日本国内では3強です。どのクラウドを選ぶか、というよりどのクラウドも活用していくマルチクラウドの思想はこれから流行していくのが必至です。各社が魅力的なサービスを競争してリリースすればするほど、全部が使えればユーザーには好都合ですし、一社にロックインされることも防げます。

ただインフラ基盤としてはもちろん全く別個です。マルチクラウドで一番悩ましいのはデータでしょう。あるデータに対して、ある日はAWS、ある日はAzure、またある日はGCPで取り扱うということは現時点では無理です。それぞれにコピーしあったとすると、通信料だけで破綻してしまうでしょう。

今回のこのサービス、HPEの公式ホームページで仕様を確認してみるも、概要しか見えないのでニュースサイトを確認したところ、下記の記事が最も詳しいです。

 

www.keyman.or.jp

 サービス提供を前にした記者会見にはHPEストレージ&ビッグデータ クラウド・データサービス担当VP兼ゼネラルマネジャーであるアシッシュ・プラカーシュ氏が駆け付けた。プラカーシュ氏は、Cloud Volumesについて、「ビジネスアプリケーションのデータ移動ではなく、今あるデータをマルチクラウドで利用できるようにするソリューションだ」と説明する。サービス提供拠点は計画を含めると北米、欧州に複数あるが、アジア太平洋地域では今のところ東京が唯一の拠点だ。

 

最も知りたかったのが、AWSやAzure、GCPから、HPEのデータセンターにつなぐとして、それはどこにあるのか。東京に拠点があると言うことで、ここから各クラウドまで専用線で接続されているとのこと。AWSに至ってはその回線利用料は無料というから驚きです(Azureでは月450ドル、GCPは未発表)。iSCSIでの接続は当然のことながら大量の通信が発生するため、その接続先が外部のデータセンターということで通信料を心配していました。また物理的な距離も近いし、インターネット回線ではなく専用線ということでセッションも安定します。

どのクラウドからでも見に行けて、IOPS(一秒あたりの入出力)も保証。大容量のデータがどのクラウドからでも見に行けるというのはかなり強力だと思います。

今後、アプリケーションはマイクロサービス化が進み、仮想サーバーに変わってコンテナが主役になると言われています。コンテナのイメージ自体は各クラウドのレジストリーサービスに登録され動作する際には各クラウドのワーカーノードに展開されますが、コンテナ自体が取り扱うデータについては、どこかの永続ストレージに保管されている必要があります。

コンテナがマルチクラウドのKubernetesで動くとして、データは共通のクラウドストレージにあれば、これは本当のマルチクラウドのためのストレージ基盤と言えると思います。

また、このHPE Cloud Storageは、HPEのストレージ機器と連携できます。オンプレミスのデータをこのサービスと連携しレプリケーション、それをクラウドが見に行くというトポロジーであれば、オンプレミスとクラウドを直接専用線接続しなくても、データ連携することが容易になります。

パブリッククラウドと自社のローカルなデータセンターを接続するのは、現実問題かなり頭を悩ませる問題です。パブリッククラウドを「1」とするとローカルなデータセンターは「N」、つまり1対Nとなっています。N回線を引かないと成立しないのでキャリアがパンクするのです。しかもお高い。

今回の方式だと、すでにHPEのデータセンターと各クラウドは接続されていますから、単にインターネット回線だけ用意すれば完結することになります。

 

問題点は

導入にあたっての懸念点です。

・各クラウドとHPEデータセンターの間の回線帯域は十分か。回線帯域がボトルネックになるとストレージのパフォーマンスに重大な影響が出る。サービス拡大に当たって、どう担保していくかの情報は重要。

・HPEデータセンターにおいて、東京拠点はMulti AZになっていないと思われ、単一障害点となっている。ミッションクリティカルなデータを置いたときに、どのクラウドからもアクセスできない状態になることも想定しなければいけない。ビッグデータ解析用など、仮に障害が起きても業務上はすぐに支障がないような使い方が望ましいのではないか。

実際のストレージサーバー運用に比べ、保守をする必要もなく、機器の定期的なリプレースも不要なので、かなり取り回しが楽だと思っています。

しばらくは試験利用にての実績づくりの期間になるとは思いますが、HPEがパブリッククラウドの世界にこういった形で参加することになるとは面白いですね。