orangeitems’s diary

40代ITエンジニアが毎日何か書くブログ

その具体的な攻撃方法とは?「サーバ用マザーボードに不正なマイクロチップ、中国軍がバックドアに利用か」

f:id:orangeitems:20181005175944j:plain

 

中国軍がマザーボードにバックドア!?

日本国内では話題にならないかもしれませんが、インフラエンジニアとして衝撃のニュースなので取り上げておきます。

 

www.itmedia.co.jp

米Bloombergは10月4日、中国の工場で製造されたサーバ用のマザーボードに、中国軍がバックドアとして利用することを狙った超小型マイクロチップが密かに仕込まれ、AmazonやAppleを含む米国企業約30社に納入されたサーバに搭載されていたことが分かったと伝えた。

 

なぜ衝撃か

この記事にあるSupermicroという会社は日本では知っている人はほとんどいないと思います。しかし、クラウド、特にIaaSで関わっているエンジニアなら誰しも知っているはずです。普通オンプレミスのサーバーというと、HPEやDELL、国内だとNECや富士通、あとはレノボなどまでが有名です。しかしクラウドの世界だと、こういった既製のベンダーではなく、クラウドサービスなど大量のサーバーを運用している会社がオーダーメイドで大量に発注し、製造までを一括で請け負うケースが増えています。その会社の一つがSupermicroです。

したがって、Supermicro自身は誰も知らないのに、たくさんの人々がSupermicroを使っているという状態がすでに一般的です。この記事でも、AmazonやAppleが出てきています。WikipediaをみるとYahoo! Japanも使っているようで、その他の会社も使っている事例を私は知っています。BIOS情報をみるとSupermicroと出てくるクラウドサービスが存在しています。

・・とするとです。(もしこの攻撃が事実だとすれば)どんなにスマートフォンや自分のPCや、いろんな周りのコンピュータのセキュリティーに気を付けても、サーバー側で引っこ抜かれてしまうということになります。

AmazonやAppleは、自社のサービスの安全性が根こそぎ否定されてしまうことから、今回のニュースを全面否定しているという絵になっています。

 

Bloombergの報道を検証する

以下、Bloombergの資料を転載します。これが今回の報道の主旨です。しかし、英語なので日本語に訳してみます。

f:id:orangeitems:20181005172717j:plain

ハッキングに至るまでの道筋(出典:Bloomberg)

 

以下、翻訳

1)中国の軍隊が、尖った鉛筆のような小さなチップを設計、製造した。 チップの中には、信号調整カプラのように作られたものもあり、メモリ、ネットワーキング機能、および攻撃のための十分な処理能力が組み込まれています。

2)サーバーマザーボードの世界最大の売り手の1つであるSupermicroに供給している、中国工場にて、マイクロチップは挿入されました。

3)(マイクロチップが)侵入したマザーボードは、Supermicroによって組み立てられたサーバーに組み込まれていました。

4)(マイクロチップが挿入されたマザーボードが入った)サーバーは、数十社の企業が運営するデータセンターの内部に侵入しました。

5)サーバーが企業に導入され電源が投入されると、マイクロチップはOSのコアを変更して、変更を受け入れることができます。 このチップは、攻撃者によって制御されるコンピュータにさらなる命令とコードを求めて接触する可能性があります。

 

具体的な攻撃方法とは?

ITmediaの記事を読む限り、これだけだとどのようにこのマイクロチップが本体のサーバーに関与しているかわかりません。しかも、日本のブルームバーグの報道は、内容が抜粋されていて大事な部分がわからないようになっています。

 
www.bloomberg.co.jp

 

原文を読むとこのような記載があります。

「ハードウェア攻撃はアクセスに関するものです。簡略化して言えば、Supermicroハードウェアのインプラントは、マザーボード上でデータを移動する際にサーバに何をすべきかを指示するコア操作命令を操作しました。これは重要な瞬間に起こりました。オペレーティングシステムの小さなビットが、サーバーの中央プロセッサであるCPUに向かう途中で、ボードの一時メモリに格納されていたためです。インプラントは、この情報キューを効果的に編集したり、独自のコードを注入したり、CPUが実行する命令の順序を変更したりできるように、ボード上に配置されていました。

インプラントは小さいので、含まれたコードの量も少なかった。しかし、彼らは2つの非常に重要なことをすることができました:

インターネット上の他の場所にあるより複雑なコードがロードされたいくつかの匿名コンピュータの1つと通信するようにデバイスに指示します。

この新しいコードを受け入れるようにデバイスのオペレーティングシステムを準備します。

違法チップは、管理者が問題のあるサーバーにリモートログインするために使用するスーパーチップの一種であるベースボード管理コントローラーに接続されているため、クラッシュしたりオフになっているマシンであっても最も機密性の高いコードにアクセスできる。

このシステムにより、攻撃者はデバイスがどのように機能しているかを変更することができます。多くのサーバーで実行されるLinuxオペレーティングシステムのどこかに、格納された暗号化されたパスワードと入力されたパスワードを確認することによってユーザーを認証するコードがあります。移植されたチップは、そのコードの一部を変更して、サーバがパスワードをチェックしないようにすることができます。安全なマシンは、すべてのユーザーに開放されています。チップは、安全な通信のために暗号化キーを盗み、攻撃を中和するセキュリティアップデートをブロックし、インターネットへの新しい経路を開くこともできます。いくつかの異常が気付かなければ、それは原因不明の奇妙なものになる可能性が高い。

「ハードウェアはどんなドアを開けても開きます」とジョー・フィッツ・パトリックは言います。

 原文のほんの一部なのですが、システムエンジニアならば上記の記載だけで事の重要性を理解できると思います。これらのロジックで言えば、インターネットに通信できるサーバーは能動的に外部へバックドアを作りに行くことになります。しかもこのサーバーの重要情報を吸い上げて送信したり、変更しても無視するように改変します。

外からの通信はファイアウォールで禁止しているけれども、サーバーからインターネットへの通信は緩いサーバーが多いので、このロジックならばバックドアが簡単に開くことになります。

本当かどうかはわかりません。しかし、現実にこのようなチップが「実際にある」ことが突き止められれば、社会的には大きな脅威となるのではないでしょうか。それはマザーボードを物理的に調べてもいいですし、チェックツールがサーバーベンダーから配布されるかもしれません。

また、最近は物理サーバーに直接OSを導入せず、ハイパーバイザーで仮想化してOSを入れるケースも多いので、このチップがどう動くのかは気になるところです。Supermicroに限った話でもないような気がしますし、個人のPCでも起こりえます。今後の報道を注視していきたいと思います。

 

追記(2018/10/8)

米政府もこの報道を否定したようです。Bloombergがどう説明するのか、フェイクニュースだとしたらシャレになりません。

 

www.itmedia.co.jp

米国土安全保障省(DHS)は10月6日(現地時間)、米Bloombergが4日に報じたAppleやAmazonに中国製不正マイクロチップ搭載サーバが納入されていた疑惑について、これを否定するAppleやAmazonの「声明を疑う余地はない」と、両社を支持する声明文を発表した。

 

報道がある以上は、現物証拠があるはずなのですが。

 

追記(2018/10/9)

アップルも改めて否定。Bloombergが何か言わないと収まらない。

japan.cnet.com

Appleは米国時間10月8日、議会に書簡を送付し、中国のスパイにチップを埋め込まれたとする報道を改めて否定した。

 

 

インターネットサービスにおけるデジタルデータの寿命は思いのほか短いのではなかろうか

f:id:orangeitems:20181005000505j:plain

 

デジタルデータの寿命と保管場所

今週、Yahoo!ジオシティーズの閉鎖とともにデータが削除されることが話題になりました。一方で、はてなダイアリーははてなブログに自動移行されるとのこと。

一般の皆様は、インターネット上にあるデータはどのように保管されていると想像されているでしょうか。ハードディスクもしくはSSDに保管されているのだろう。それは正解なのですが、もっと正確に答えようとするのならば不完全です。

具体的には、

・物理サーバー内のローカルハードディスク。普通はRAIDを組んで冗長化している。

・ストレージサーバーのローカルハードディスク。物理サーバーからはネットワーク経由でアクセスする。ネットワークプロトコルは様々。

・オブジェクトストレージ。大容量保管のための分散ストレージで、複数のコンピュータを使ってデータを格納する。

この3つのどれかです。サーバー向けということで個人で用意できる金額ではありません。運用エンジニアであれば、サーバーホスティングサービスやクラウドサービスを営んでいる会社が、データセンターを借りてお客様へ提供しているということで馴染みが深いと思います。個人でもこのサービスを利用し少額で一部を借りるということは最近特に利用されていますし、クラウドサービスはその一部です。

個人からすると、どのようにインターネット上で保管されているかは全く意識しません。一方でシステムトラブルが起こるとどうなっているかわからないのでかなりストレスがたまります。このときはシステム提供会社がいかにバックアップ体制を持ち、迅速に復旧できるかがポイントとなります。

 

機械の寿命

ところで、物理サーバーのローカル保管にしろストレージサーバーにしろ、オブジェクトストレージにしろ最後はハードディスク(もしくはSSD)に存在することになります。このディスクですが、絶対壊れないディスクはありません。壊れてもいいようにRAIDという技術を用いて、1本(RAIDの種類により2本以上)が同時に壊れてもデータが壊れないようにします。そして壊れた場合は、サーバー保守を締結しているベンダーが変わりのディスクを持ってきたり郵送したりして、このディスクを交換します。そうやって、我々のデジタルデータはインターネット越しに保管されています。

そうやってハードディスクに保管されているデータを守れているうちはよいのですが、さて、このハードディスクは永遠に破損したら交換できるでしょうか。答えは「いいえ」です。サーバーのハードディスクは一般のハードディスクと違って、そのベンダーの指定の部品を使わないと保守が結べなくなります。他社のディスクを使っても動きはするのですが、保守部品の交換を断られますし契約の締結ができません。保守契約ありきで部品をいつも健康な状態に保つのですが、この保守契約が短くて5年、長くても7年程度で交換部品をベンダーが製造しなくなってしまうのです。そうすると、いくらお金があっても年間保守が結べなくなります。スポット(臨時)で交換を頼んだ時に、余りの部品があれば受けてくれる程度になります。

つまり、ハードディスクの代わりの部品が用意できる間は保守契約を結べる。生産中止とともに交換ができなくなる。それが5年~7年スパンだ、ということが大事です。もちろんハードディスクだけではなく、物理サーバー・ストレージサーバーも同様です。すべては寿命があるということを覚えておいてください。

 

5年から10年以内に、必ず移し替えなければいけないと考えた方がいい

そうすると、インターネットに預けているデータを保管している箱は、案外もろいものだと思いませんか?。始めた当初はビジネスが立ち上がり投資と売上のバランスを見ながらサーバーを増やし、運用部隊が保守サービスをベンダーと締結しつつデータを守ります。しかし、ビジネスはピークアウトします。そうすると運用にかかる費用と保守費用が重荷になってきます。売り上げは大したことないのに、保守ベンダーは保守費用をもちろん請求してきます。お金を払わないなら、ハードディスクが壊れても放置するしかなくなります。最終的にはデータが吹っ飛びます。

ジオシティーズ然り、長年サービスを続けたサーバーは「老朽化」しています。だからと言って新規投資をしてデータ移行するメリットが感じられない場合、保守が締結できる間は締結して、ひたすら放置というのが定石です。そして経営者が終了を決断し、サーバーは停止し廃棄することとなり、データは失われていきます。

また、そのデータに価値がありビジネス継続したい場合は、お金をかけて新しいサーバーに移し替えます。今回のはてなダイアリーをはてなブログに自動的に移す判断は、新規投資するだけの価値があったという判断でしょう。

このように、運営者の懐とビジネス状況によって、インターネット上にあるデータなど急に無くなってしまうということを皆が知る必要があります。率直に言って、データの寿命は世の中が思っているほど長くはありません。クラウドサービスの永遠に保管してくれそうな雰囲気はポーズであり、中の人はどう定期的にデータを移行しながら保全するかは大事な仕事になります。

古参のサービスを動かしている物理サーバーやその部品が、本当にもう世界に部品が無くなり、壊れたらも壊れたままにしておくしかない。そういった状況まで追い込まれサービス中止を判断するといったことが、インターネット普及から20年経った日本において頻発しているのではないかと思います。

 

本当に残したいデータはどこへ?

クラウドサービスに預けたら残せるというのは幻想です。運営者のビジネス理由により削除を迫られる場合があります。バックアップ用途が関の山です。

ポータブルハードディスクはどうでしょうか。ハードディスクの寿命は数年です。壊れたら終わりなので、複数個所に保管しておくと少しの気の休まりにはなります。

DVDやBLUERAYディスクはどうでしょう。これは今となってはサイズが小さすぎます。また、それでもよろしければ寿命の長いメディアだと思います。懸念点は、プレーヤーが絶滅する可能性です。

ということで、2か所の場所、かつ複数のメディアにできるだけ保管すること。1個のメディアが破損した場合は速やかに交換し、新しい保管ポイントに保管することが求められるでしょう。

ストレージの仕組みと、かかるコストを知っているからこそ、ジオシティーズの終了などはとても良くわかるし歴史的な一コマだと思います。もし他のクラウドサービスを利用していて、データを手元に複製していないのであれば、これはぜひ複製してくべきだと思います。それぐらい、デジタルデータは人々が思っているより脆いものだと思います。

 

 

インフラ/ネットワークエンジニアのためのネットワーク技術&設計入門

DNSサーバーでDNSSECを使っている人は要対応、と総務省が言っている件

f:id:orangeitems:20181002205836j:plain

 

総務省が注意喚起

DNSサーバーの運用と言うのは慣れてしまうと空気みたいなものですが。総務省が注意喚起をしているので取り上げます。

 

www.soumu.go.jp

インターネットの重要資源の世界的な管理・調整業務を行う団体ICANN※1は、DNS(ドメインネームシステム)における応答の改ざん検出等の仕組みに用いられる鍵のうち、最上位のもの(ルートゾーンKSK)の更改を、本年10月12日午前1時(日本時間)に行うことを決定しました。
 これに伴い、キャッシュDNSサーバーを運用している方において事前の処置が必要となる場合があります。

 

キャッシュDNSサーバーというのは日本中、いや世界中にばらまかれているので、システムのお守りをしている人はギョッとするのではないでしょうか。だいたい、場合があるとはどんな場合なのか。自分の管理するDNSサーバーは対象なのかどうか。

 

ニュースにもなってますね。

www.itmedia.co.jp

総務省は10月2日、ホスト名・ドメイン名をIPアドレスに変換する仕組み「DNS」(Domain Name System)で、暗号鍵の一部が12日に更改されることを受け、インターネットサービスプロバイダー(ISP)などに対応を求めた。

 

結論

結局のところDNSSECを使う設定にしているキャッシュDNSサーバーだけが影響を受けます。しかもRFC5011という設定を行っていない場合に限定されています。

 

DNSSECとは?

まずDNSSECって何ぞや。一番わかりやすいページを紹介します。

 

www.atmarkit.co.jp

インターネットの重要な基盤技術の1つであるDNSに対して新たな攻撃手法が公開され、その安全性が脅かされている。DNSにセキュリティ機能を提供するための技術であり、普及が進んでいるDNSSECについて、仕組みと運用方法を紹介する。(編集部)

 

一通り読むと、ああDNSの経路を鍵認証を使ってキャッシュポイズニングされないようにするために仕組みなのね、とわかると思います。

で、その一番親玉の鍵が2018年10月12日に変わっちゃうぞというのがポイントです。

 したがって、えーDNSSECって構築したことないやー、って人はそもそもセーフだったりします。

 

CentOS7 + BIND

例えば、BINDでの構築については、named.confの中に、

 

options {
--省略--
dnssec-enable yes;
dnssec-validation yes;
--省略--
};

 

っていう記載がなきゃ絶対に使っていません。ダメ押しで、CentOS7 + BINDでの構築方法まで紹介しておきます。下記ページが最も具体的でわかりやすかったです。

 

genchan.net

 

RFC5011の件は後述します。

 

Window + DNS

今回初めて知ったんですけど、Windows は絶対に対応不要です。

ルート ゾーン KSK の更新に伴う Windows の DNS サーバー上での対策の必要性 – Ask the Network & AD Support Team

Q1.
Windows の DNS サーバーにおいてルート ゾーン KSK の更新に伴い、対策を実施する必要があるのか。

A1.
結論として、Windows OS の DNS サーバーにおいては DNSSEC の構成の有無に関わらずルート ゾーン KSK の更新に伴う対策は不要です。

一般的には、ルート ゾーン KSK を管理しているパブリックのルート DNS サーバー (権威ある DNS サーバー) に対して明示的に DNSSEC を利用するように構成されているか否かが判断基準となります。
このため、DNSSEC を構成せずに DNS サーバーを利用している環境においては、今回の更新に伴う対策は必要なく、具体的な影響もないと判断できます。

Windows において DNSSEC を利用するように構成されている場合 “Windows Server 2012” 以降の OS であれば RFC5011 (トラストアンカーの自動更新) に準拠しているため、DNS サーバーは自動更新が有効であり、対策は不要です。
更に、Windows Server 2008 R2、Windows Server 2008 ではハッシュ アルゴリズムとして "RSA/SHA-256" に非対応であり、今回更新されるパブリックのルート DNS サーバーは "RSA/SHA-256" のみ対応しているため、DNSSEC を設定することができません。
このため、Windows Server 2008 R2 および Windows Server 2008 についても対策は不要となります。

 

なるほど・・完璧ですね。RFC5011によって、鍵が変わっても自動で対応してくれるんですね。

 

RFC5011の件

そういえば、RFC5011って、BINDは対応していないのかしら?

 

NICにあるPDFがわかりやすかった・・。

https://www.nic.ad.jp/ja/materials/iw/2015/proceedings/t5/t5-ishihara.pdf

 

f:id:orangeitems:20181002205421p:plain

 

上記の通り、managed-keysというディレクティブで設定すれば、Windowsのように自動更新してくれるそうです。

BIND+DNSSEC使いで、自動更新していると思っている人も実際更新されているかは確認したほうがいいでしょうね。

 

感想

キャッシュポイズニングを避けるというのは確かにありがたい機能ですが、キャッシュDNSサーバーがしびれちゃうと重大障害になりますからね。DNSSECが設定されつつRFC5011で自動更新していない人は注意、くらい総務省も言ってくれるとわかりやすいのでは??と思います。

私はまだDNSSEC使ったことなかったので勉強になりました。あとWindows ServerのDNSサーバーは良くできてますね。

 

 

標準テキスト CentOS 7 構築・運用・管理パーフェクトガイド

さよならジオシティーズ、情報が溶けていく。

f:id:orangeitems:20181001215029j:plain

 

ジオシティーズが2019年3月末で終了

日本では1997年からサービスを続けてきたジオシティーズが2019年3月末を持って終了するという話題は、私のような初期からインターネットを見続けて来た人を中心に、特別な思いを持って衝撃として受け取られています。

 

info-geocities.yahoo.co.jp

Yahoo!ジオシティーズは、2019年3月末をもちましてサービスを終了させていただくこととなりました。

 

今ジオシティーズで最もアクティブなサイトは何なのか。調べましたので共有しておきます。

 

移転しないと無くなってしまうサイトたち

Googleにて検索順に紹介します。なお、移転先があるものや、明らかに更新が止まっているものは省いてあります。また独自ドメインを使うことができるジオプラス利用サイトは割り出しにくいのでこれも入れていません。

 

浜松原発とめよう裁判の会

バリバリに最近まで更新されているページですが、裁判が終わる前にページが無くなってしまいそうです。移転をしなきゃですね。

http://www.geocities.co.jp/ear_tn/

 

けいの無銭旅行記

世界中を旅行されている岩崎圭一氏のホームページ。タイトルの通りお金を持たず移動されているとのことですが、知る人ぞ知る・・といったところでしょうか。かろうじて日記が別ドメインになっているので、全面的に閉鎖とはならないものの2001年から続くさいとなのでなんとか移行していただければ。

http://www.geocities.co.jp/keinoryokouki/

 

twicli

「twicliはWebブラウザ上で動くTwitterクライアントです。WebブラウザさえあればMacでもWinでもLinuxでも動きます。インストールも不要。タイムラインを随時、自動的に取得してアニメーション表示していきます。専用サーバなどは介さず、クロスドメインJavaScriptで直接Twitterからツイートを取得するため高速です。」

というWebアプリケーションを公開されているページです。ブクマが452ついていて、意外とファンの方が多いのではないでしょうか。

http://www.geocities.co.jp/twicli/

 

PianoPub ふら~っとホーム

「ふら~っとホームは、京都四条大宮にある、生演奏をバックに歌えて楽器で遊べる楽しいお店です。 老若男女問わず、音楽好きな方、お気軽にご来店下さい!
60分 ¥1,980 ( 税込、ワンドリンク・おつまみ付 )~」

なんかすごいいい店っぽい、行ってみたいと思いました。最近も更新があるので、ぜひ移転をお願いします。京都に行ったらせっかくなので寄ってみよう。

http://www.geocities.co.jp/pianopub_flathome/

 

Studio AI

これも京都の写真館のページ。

http://www.geocities.co.jp/studioai2001/にアクセスすると、

http://www.studioai-smile.com/に飛ぶのですが、IPアドレス見ると実態はジオシティーズのようです。ということはこのままいくと来年3月末で消えてしまう・・。

こんなケースもあるんですね。

http://www.geocities.co.jp/studioai2001/

 

総合品質管理 TQM FMEA/FTA

鵜沼 崇郎氏が代表を務められている、客観説TQM研究所というページです。品質管理のコンサルタントを務められているそうで、2003年から毎年予定と実績がまとめられています。

TQM (総合品質管理-客観説TQM)

 

名古屋大学軽音楽部エーデルレーテジャズオーケストラ

古い歴史のある部活動やサークルは、ジオシティーズ使っているケースが多いですよね。おそらく中の人はどうしようか議論になっているのではないかと思います。もしくは気が付かないか・・。

http://www.geocities.co.jp/edel_jazz/schedule/new.html

 

フラメンコスタジオ・ブエナ ヘンテ

「大阪天王寺より電車で約3分・4分の所に所在する貸しスタジオ・ブエナ ヘンテは、フラメンコ舞踊の練習の場として,皆さんの楽しむ場として、そして上達の場として、貢献出来れば幸いです。」

フレームを使った昔ながらのHTMLのページですが、予約システムとしてバリバリに使われています。習い事系のページも多くみられますね。

ブエナ ヘンテ・フラメンコ・スタジオ

 

京都大学音楽研究会器楽部

「京都大学音楽研究会器楽部は、24時間使用可能な練習する場所を提供するのが目的のサークルです。いろんな楽器をする人が集まり、個人練習やアンサンブルを盛んに行っています。」

なんだか京都が多い。

http://www.geocities.co.jp/onkenlvb/

 

OSSSME オープンソース(OSS)で中小企業のIT化

「現役の中小企業IT担当者がオープンソース導入のノウハウを一挙公開!」

Chromeで開くとページが崩れるのですが時代の流れでしょうか・・。アメブロに個人ブログを持たれています。

http://www.geocities.co.jp/sugachan1973/index.html

 

京都府立大学合気道部

「毎週 火・木・金曜日 全体練習18時~19時半 自主練習19時半~21時 京都府立大学 第2体育館2階 武道場で活動中!!」

京都はジオシティーズを使わなければいけない裏ルールでもあるのでしょうか・・。

http://www.geocities.co.jp/kpu_aiki/

 

フェアリー新体操クラブ

茨城県つくば市で活動する新体操クラブです。

整ったページであり、クラブ運営に愛を感じます。ぜひ移転を進めてほしいですね。

http://www.geocities.co.jp/fairyrg_tsukuba/index.html

 

JBAとうきょう&かながわ 中学生・高校生管打楽器ソロコンテスト

管打楽器のソロコンペ応募要項のページですが、ジオシティーズが終わるまでには開かれそうです。

http://www.geocities.co.jp/jba_solocon/

 

埼玉大学卓球部

「埼玉大学卓球部へようこそ!埼玉大学卓球部は、関東学生卓球リーグ戦という、春と秋にある団体戦で上位に入ることを目標に練習しています!!」

がんばれ!。みなさん楽しそうです。移転もがんばってください。

http://www.geocities.co.jp/saitama_u_ttc/

 

東幼稚園

神奈川県横浜市の幼稚園のページ。めちゃくちゃアクティブなサイトなのですが、きちんと移転を完了して頂きたいものです。長い歴史を感じます。

http://www.geocities.jp/azuma_kids/home.html

 

Music Cafe SOEN

京都のカフェです。ほんと京都率が高い。なんだかジオシティーズって音楽系のサイトが多いんですねえ。何か風情を感じます。行ってみたい。

Music Cafe SOEN

 

RINDA☆MUSIC Official WEB SITE

ブラジリアンパーカッショニストRINDA☆さんのオフィシャルWEBサイト。フラッシュが貼ってあるのが懐かしい。

http://www.geocities.co.jp/estrela729/profile.html

 

久我山オートテニス

なんだか最近作ったんじゃないかとおぼしき東京都三鷹市にあるオートテニスのページです。結構時間をかけて作った風なので、作成者のため息が聞こえます。オートテニスって聞いたことはあるけど行ったことはない・・。

http://www.geocities.co.jp/kugayama_auto_tennis/index.html

 

古世界の住人

「古生物、恐竜などの絶滅動物、現生動物そして未来動物まで イラスト図鑑ウェブサイト」

なんか作りがすごいです。どうにかして移転して頂きたいものです。イラストがプロです。これは一見の価値あり。強く移転希望。

http://www.geocities.co.jp/NatureLand/5218/

 

嗚呼!天外魔境2

天外魔境2という1992年に発表された超古いゲームの攻略サイト・・。考古学的な価値がありそうな気が・・。

http://www.geocities.co.jp/Playtown/9081/

 

井上陽介ホームページ

ジャズベーシスト井上陽介さんのホームページ。現在国立音大で教鞭を取られているそうです。ジオシティーズが閉まると聞いて大慌てではないでしょうか・・。なかなかの情報量です。何せ「Since Feb 16/2000」ですから。

http://www.geocities.co.jp/MusicHall/3814/

 

青陵ウィンドオーケストラ

フッター見ると「All Rights Reserved, Copyright (C) 1998 - 2017 Seiryo Wind Orchestra.」とあるのでかなりの老舗・・。

「青陵ウインドオーケストラは、相模原市南区にある県立相武台高校(現・相模原青陵高校)の、 吹奏楽部OBバンドとして1987年12月に10数名で結成されました。その後、さらなる技術の向上と吹奏楽を通じて多くの人と交流することを目指し、 1988年3月に一般化し、団体名を青陵ウインドオーケストラとしました。」

だそうです。きれいなページだなあ・・。

http://www.geocities.co.jp/Hollywood/5849/about/index.html

 

 

・・・きりがないのでこの辺で終わります。

 

感想

そのほかにもたくさんたくさんあるので全部紹介しきれないのですが、歴史のある組織や個人ばかりで恐れ入ります。

ぜひ、ジオシティーズ終了のニュースが皆さまに伝わっていることを祈ります。デジタル情報なんて、誰かの気まぐれでこんな風に危機にさらされるのですね。デザインが古くても使われていればそこに息遣いを感じます。そういえば今日・・

 

nlab.itmedia.co.jp

 

なんて揶揄された記事も出ましたが、上記に紹介したようなジオシティーズのページになかなかたどり着けなくなっているGoogle検索なんでしょうね。

 

 

インターネット私史 その礎を築いた友たちへ (NextPublishing)

データが導く時代は来るが大失業時代は来ない

f:id:orangeitems:20181001001423j:plain

 

ビッグデータの時代で大失業時代がやってくるか

ビッグデータによるデータ解析スピードが劇的に向上したことで、真実を発見するプロセスが大きく変わるのは二日前のエントリーで書いたばかりですが、だからといって大失業時代が来る!という煽りには全く賛同できません。

 

toyokeizai.net

ここの読者はそうでないことを願いますが、多くの日本人サラリーマンは同様にFB、アマゾンなどによって職を失うことになります。

 

まあ巻末のスプリンターズステークスの予想が大外れですので、この記事も外れるかな、というのは軽口ですが、なぜ外れるかについて私なりの見解をまとめておきます。

 

ビッグデータを集めるのは誰か

まるでGAFA(google/amazon/facebook/apple)が世界のデータを牛耳っている印象を持つ記事ですが、これは違います。世界のデータ量から言えばほんの一部も一部。表層に見える部分をサマリーしているだけです。データは、そのデータがアウトプットしないとストレージにはインプットできません。その足を延ばすために、Amazon AlexaやGoogle homeなど、非PC/非スマホデバイスを作ったわけですが、それでもほんの一部にしかすぎません。データは99%以上がプライベート(非公開)です。インターネットにあるデータはノイズやウソの塊です。本当の情報にたどり着くことが難しいのは、例えばシステムエンジニアであればよくわかるはずです。検索して正しい情報にたどり着くためには、何個か候補を見出し、そのなかで最善なものを一度試して正しか検証するでしょう。検索順位というのは「多数決」でありGoogleが正しさを保証してくれているものではありません。ノイズもウソも含めて「情報」という素材でありその順位を決めるアルゴリズムを考えているGoogleは素晴らしいのですが、一歩引いて考えるとそのローデーターは、「公開されていいもの」から成り立っているにすぎません。繰り返しますが、データは99%以上が非公開です。しかもこの非公開のデータに限って、正規化されノイズの無い状態ですぐに利用可能なものです。

インターネット上にあるデータを生データとしてビッグデータとして扱うのは、GoogleだけではなくTwitterも有名なところです。そしてその非公開なデータにうまく入り込んだのがFaceBook。ただ非公開と言ったって、親しい仲間の間でやり取りされる情報、というくくりであって、ビジネス上の機密データなどは入り込むスキがありません。インターネットは世界の縮図と考えるのは、インターネットに夢を見すぎでしょう。

一方で、そのプライベートデータをビッグデータと呼べるほど一企業がデータを保有しているのかという心配のニュースも出てきました。

 

www.nikkei.com

日本の主要企業の6割が人工知能(AI=総合2面きょうのことば)運用に欠かせないデータ活用で課題を抱えていることが分かった。製品やサービスの開発、事業開拓などAIの用途は新たな分野に広がりつつある。だが必要なデータが不足していたり、データ形式が不ぞろいで使えなかったりと、AIの導入に戸惑う事例も多い。

 

こんな状況で、「大失業時代」というのは話が飛躍しすぎです。電車の改札が自動改札になって失業率が上がったのでしょうか。そろばんが計算機になりそしてEXCELになりクラウドになり、経理の仕事はなくなったのでしょうか。自動化された結果その職種に関わる人数は減るのですが、上がった生産性をもとに別の課題が与えられるようになります。人間でしかできない仕事に人々が誘導され続けているのがこれまでの歴史の鉄則であると思います。昔あった仕事は今ない、と言うケースは多いかもしれませんが、昔ない仕事が今あるケースも多分にあります。ある職種が無くなるからと言って大きな心配はいりません。別の職種が生まれます。ビジネスの中心は必ず人間であって、人間のないビジネスは存在しません。データ中心主義になればなるほど、どうやってデータを集めるかたくさんの人間が知恵を絞ることになり、そしてその結果が正当であるようにまた、人間が関わることになります。またそのデータそのものの性質も時代により移り変わり、それを人間がコントロールしなければ、無価値の結論が出てくるだけです。

 

変わることを恐れない

ビッグデータを人間が扱える能力を持って全く時間が経っていません。したがって、今はGAFAに富を集中させた世界ですが、未来を知っている人は誰一人いません。データの保全はもはや国防であると世界が気付き始めています。だんだん情報鎖国のような政策も出てくるでしょう。冷静にビッグデータとの付き合い方を図りながら、人間がよりよい生活をできるようになるためにはどうすればいいか、個人一人一人が考えていく必要があると思います。そんなに怖い話ではないのです。私はそう思います。

 

 

the four GAFA 四騎士が創り変えた世界

 

データが人間を導く時代

f:id:orangeitems:20180928222210j:plain

 

まずはログの思い出から

ほんの10年前までログは捨てるものでした。まずシステムの運用設計で考えるべきものはログをいかにローテーションするか。ログを取得していなければ問題が発生した時に何が起こったか分からないのでもちろん何をログするか、それがどれぐらい一日で発生するかを計算するところは、インフラエンジニアの力の見せどころでした。ただ、ログを保管するストレージは昔は高価でしたし、容量も低く、かつアクセススピードが低速でした。長期大容量保管に向く磁気テープは基本的にアーカイブした状態でシーケンシャルに・・、わかりやすく言えば圧縮をリアルタイムにかけつつデータの先頭から順番に保管していきます。ということはランダムアクセスできないので、データのアクセスをいざやろうと思っても、インフラエンジニアが磁気テープを保管庫から取り出し、ハードディスクに書き戻し、かつ解凍しなければいけないという大変な作業でした。

今となってみれば、あれで給料もらえていたのだから古き良き時代なのかもしれません。

 

状況の変化

今はすっかり状況が変わりました。ストレージが大容量したことはもちろんですが、分散技術、つまりたくさんのノード(計算機)でデータを分割して持ち、計算によって実データにたどり着くようになりました。そして、SSDやフラッシュメモリーの技術も登場し、データへのアクセスが激速になっています。AWSなどのクラウドベンダーがこれを抽象化してS3などのオブジェクトストレージを普及させ人々に大容量は人間でも扱える自信をつけてくれました。もはや、ログの管理はゴミ処理場ではありません。もうそのまま圧縮すらせずに(もしくは解凍コストもゼロに近くなり)昔は考えられないほど放置しておいても何も困らなくなりました。したがって、昔ながらの運用設計をしている人は考え直した方がいいかもしれません。ログは削除するものではなく、大容量高速ストレージにおいておくべきものになっているのです。そして何の利用をするか決めなくても保管したままであってもコストがかからないのであれば、ログのサイジングなんて無駄なのです。そこは現実の世界とそろそろ乖離し始めていて、保管コストのリスクよりログを捨てることの方がリスクになる分岐点を超えたように思います。それぐらい保管コストはもう安いし、しかも取り出しも十分に早い。

さて、ログのようなデータがこれだけ垂れ流してもいい時代になると、人間が全部読むのは完全に無理です。コンピュータが分散処理で対処しないといけません。しかもその読み方もAIやディープラーニング等の登場で、人間っぽい調べ方に近づいています。これは偶然の一致ではないのです。ハードウェアの進化で高速に大量の読み出しが安価にできるようになってきたからこそ、昔からあった技術が生きたのです。必然の一致です。こうなってくると、人間の科学的な演繹的思考をひっくり返さなければいけなくなるのにお気づきでしょうか。

もっとかみ砕きます。ある人が何か新しい説をひらめいたとします。その説はまだ個人的な見解の域を超えず事実と呼ぶには及びません。これを憶測と言います。これを裏付けなければ新発見とは呼びません。したがってこれを仮説と定義し、これを裏付けるための実験を開始します。再現性があることを確かめるのです。その際には、すべての条件を試すわけにはいかないので、ある程度サンプリングします。たとえば日本人の傾向を調べるのであれば電話調査で2000人くらいのアンケートを取ってそれを参考にしますよね。1億2000万人全員から裏取りはできないのです。そしてこの2000人のアンケート結果を客観的に検討し、結論を得る。これが科学的な態度と呼ばれるものでした。

この方法が、陳腐化してきているということです。人間が読み取れない大量のデータを元データとし、人間的な思考アルゴリズムを用いて、結果を取り出そうとするのです。そこには仮説すら不要で、データから導き出した結果しかありません。

このプロセスには落とし穴もあります.

・アルゴリズム自体に欠陥があり、間違った結果を導いてしまうかもしれない。
・収集したデータが不十分なため、結果が真実とかけ離れてしまう可能性がある。
・どんなアルゴリズムでそれを導き出したのかが人間に理解できないかもしれない。
・プロジェクトリーダーが偏った結果を出すためにアルゴリズムやデータに操作を加えるかもしれない。

こういった懸念に先回りしたサービスも生まれてきています。

 

www.nikkei.com

米IBMは人工知能(AI)の意思決定の流れを可視化するソフトウエアを開発した。AIの判断基準を明示してシステムの信頼性を高める。AIの判断ミスなどへの不安から導入をためらっている企業の受注獲得につなげる。

 

旧来の科学的方法が陳腐化する

もはや人間が仮説をもとに真実を導くという旧来の科学的な態度とは別に、データがまずそこにありそこから事実をコンピュータが引出しこのフィードバックを人間が利用しより確実な行動を取る。この大きな変化が起こったため旧来の科学を大事にしてきた大学等がより社会の進化と乖離し始めているという考察も成り立ってくるのではないかと思います。データとコンピュータとアルゴリズムさえあれば、未知の事実を取り出すという大学が担ってきた分野を侵食してしまうのです。圧倒的な生産性で次々と真実を導き出してしまうのであれば、大学が論文を年間いくつ提出したかというベンチマークで勝負しているのとは大きな差がついてしまうのではないでしょうか。ビッグデータから生まれた真実をまとめていく作業は、これまでの科学研究とは似ても似つかぬものです。

・・・というような状況がついに現実のニュースにも反映され始めたようです。

 

pps-net.org

 

newswitch.jp

 

日々のログが大量にある発電所を中心にまず、ログから故障を割り出し人間が動くというフローが確立されたニュースなのですが、こんなものはまだ序の口のように思います。これから、大量の非正規なデータから事実を生み出すアルゴリズムがどんどん生まれていきます。人間が起点ではなくデータが起点であり、それを知りえる人が成功していくのです。大量資金による大規模な設備投資が20世紀では勝ちパターンだったのですが、2020年に向けて、どうも大量のデータを保有している組織にお金が大量に集まってきています。Google / Amazon / Facebook / Apple。みんなビッグデータを保有しています。もちろん使われ方に疑義を唱えられ窮地に陥ったFacebookのような例はあるにしろ、この方向性はゆるぎないと思います。

 

マイクロサービスの登場の意味

これまで、データというものは無駄なものは削ぎ取られ、正規化していなければいけないというのがスタンダードな考え方で、それに向いているシステムがいわゆるモノリシックと呼ばれる古典的なWEB+AP+DBの3層システムでした。ところがデータが爆発的に増殖し最早、そのデータそのものは非正規な状態でも欲しいときにコンピュータが取りまとめて計算して表示する方がビッグデータの処理としてはふさわしいという考え方が流行してきました。これに相応するのが、コンテナの利用を中心にしたマイクロサービスです。ですから、マイクロサービスを試してみたけど全然ダメで、モノリシックに戻したという例が出てくるのです。そもそもアプローチが違うのに流行だけでマイクロサービスを行っても意味がありません。それがわかっただけでもやらないよりはやったほうが学びにはなるのですが。Googleの検索サービスのように、毎回の結果が同じである必要が必ずしもないものは、検索対象のページデータをリレーショナルデータベースに持つのはそもそも無理なのです。ビッグデータありきのマイクロサービスであり、デプロイがしやすくて開発者が楽、なんていう即物的な理由が一番であるはずがないのです。

 

インフラエンジニアは中心にいる

さきほど、Google / Amazon / Facebook / Apple が大量なデータを持っていると言いましたがそれでも彼らが持っているデータは、地球の神羅万象から発生するデータのうちほんのかけらにしかすぎません。また、データはクラウドに吸い上げるだけが唯一の方法ではなく、オンプレミスでも十分なのです。しかも日本企業はいわゆる「オフライン」の企業が非常に多いと思います。町工場や職人を含めそこにはデータがたくさん隠れています。これをどう料理するかを導くのはインフラエンジニアの仕事です。ストレージだけあっても何もインプットされません。ネットワークが必要です。そしてエッジと呼ばれる情報を取る機構も必要です。データから真実を取り出す方法がどんどん洗練されていけばいくほど、それを実現するハードウェアの実装方法は大事になっていきます。まるでビッグデータ処理はクラウドでというのが当たり前のようになってきていますが、全く違います。ほとんどのデータはプライベートでシークレットです。あなたの今日の食事を何人が知っているというのでしょう。これから人間がどうデータを取り扱っていくかという課題に対して、インフラエンジニアは間違いなくブレーンとして活躍できるポジションにあると思います。私の今日の晩御飯の話題がクラウドに保管されるとか絶対にイヤですから。まあシチューでしたけど。

時代は転換点にあります。たくさんのデータを保管する能力を人間が得た後に、どんな変化が待っているか想像はできないのですが、ぜひ、平和的により人間がよりよくなっていくためにインフラエンジニアとしてその実現をリードしていきたいと思っています。

 

 

データ分析の力 因果関係に迫る思考法 (光文社新書)

NEC新野社長のインタビューを読んで

f:id:orangeitems:20180926165537j:plain

 

NEC新野社長のインタビュー記事から

このブログで何度も書いているNECの経営改革の話題ですが、また新野社長のインタビュー記事が出ていました。個人の感想として、この内容に触れたいと思います。

 

cloud.watch.impress.co.jp

「2018年は、変革に向けたギアチェンジの年。これまでの『当たり前』を捨て、本当に必要なものを、いかに強くしていくかに取り組むことになる」と語る新野社長に、NECのこれまでとこれからを聞いた。

 

感想

私の個人的な感想です。

かなり長文の記事なのですが、それにも関わらず社長の発言内容に、具体的な事業内容があいまいなのが非常に気になります。

・「自らが変化をして、自らが市場を作っていく」

・「これだけ世の中が変わっているのに、頭だけで考えようとしている。実行力がまったく追いついていない。その姿勢を根本的に変えないといつまでたってもかわらない」

・「ギアチェンジ」

・「全員がギアチェンジをしてほしい」

・対話会を実施

・約30人の現場のエース級人材を“変革の推進役(Change Agent)”に任命して、2018年7月から変革プロジェクト「Project RISE」を本格的にスタート

・トップが現場に行って、なんのためにこれをやるのかということを言い、「こうやったら達成できる」「もし達成に向けた阻害要因があるのならば言ってくれ。絶対に解決する」という話をしています。

・グローバルで責任を持てる事業は国内事業から切り離し、それをグローバルビジネスユニットに移管して、製販一体の体制

・グローバル事業における責任と権限を一元化

・熊谷さんがGEジャパンを辞めるという話を聞き、「ぜひ一緒にやってほしい」とお願いした

その他諸々続くのですが、具体的なプロダクトが見えてきません。変わろう、変え方は有識者中心にみんなで考えよう。社内でわからなければ社外から引っ張ってこようと言う風に見えます。

もともと、SIという仕事自体がお客様の要望を聞いて、システムインテグレーションを行うことを主眼としているためお客様の言われたことの中にしか、ビジネスの芽がないという風に錯覚しがちなのではないかと思います。

本記事のまとめにて、

――いま、NECが抱える課題はなんでしょうか。

 ひとことでいえば、社内の「文化」です。技術、顧客、競合、市場のすべての環境が変化しています。変化対応力が、企業の強さを決める要因ですが、そこに課題があります。現場の社員までを含めて、自分で市場を見て、自ら考えて、指示を待たずに自ら行動するということができていない。外から来た人に見てもらうと、明らかにNECのやり方は遅れていることがわかります。

とあるのですが。市場が変化し、それに対応する能力が必要とあります。私は違うと思うのです。市場を変化させる革命的な(イノベーティブな)製品こそNECに求められているのではないかと思うのです。

Google/Apple/Facebook/Amazon(GAFA)は市場の変化を見て製品を投入しているわけではありません。投入した製品が市場を変えるのです。

家電メーカーで例えます。お客様中心主義でユーザーから吸い上げた要望を、プロダクトにベタベタくっつけていった結果、家電はどうなったでしょう。どんどんボタンが増えていき階層が増えていき、最終的には収拾がつかなくなって、欧米の高級なスマート家電に駆逐されていったではありませんか。昭和のお客様中心主義が招いた幻想をNECも引きずっているのではないかと思います。

窮地だったAppleを救ったのは、スティーブジョブズのiMacでありiPodであり、iPhoneでした。ユーザーの動向を見て作ったプロダクトではありません。ユーザーが想像しないような体験で感動をさせたい、その思いで会社全体を引っ張った結果がAppleの再興でした。窮地に陥っているという意味では、Appleの復活劇は大変参考になります。スティーブジョブズはエンジニアだったわけではないことから、社長のビジョンで何を作り出し実現し、市場をどう主体的に揺り動かしていくかというシナリオが最も大切だと思います。

ところが、今回の内容を読んでも、社内文化を変えていく、組織を変える、事業を買う、有識者を活用する、そんな調整型の改革ばかりで、市場を変革するようなプロダクトが見えてこないのです。

市場で一番流行っているものを追いかける感度を磨き、早急に投入しマネタイズするということを追いかけた結果、レッドオーシャンに飛び込み価格競争に直面し、差別化できずに有識者は競合に引き抜かれていくというリスクを感じざるを得ません。リスクヘッジばかりしていると、かえってリスクとなると考えます。

もっと社長には、市場が気づいていないNEC発の革命的なプロダクトを、熱っぽく語る役割を期待せざるを得ません。「世界中が新しいNECのそのプロダクトを使うことになる」、そんな宣言を待ち望んでいます。

 

答え合わせはもうすぐ

今期の決算が来年の春に出ると思うのですが、その結果を待っています。驚くようなプロダクトが実は用意されていて、V字回復の起爆剤となるような出来事が隠されていた、そうなればいいなと思います。

 

 

 

(重要)Oracle Java 11から、ライセンス契約の内容がガラリと変わっています | 無償利用は非商用・開発用途のみ

f:id:orangeitems:20180926151706j:plain

 

Oracle Javaに訪れた大きな変化に気が付いていない人が多い

2018年9月26日に、Oracle Java 11がリリースされました。

Oracleからダウンロード可能となっていて、これまでいろいろ騒ぎになっていた割にはいつもと同じ景色で拍子抜けしたという方も多いのではないでしょうか。

何も世界は変わっていない。

しかし、それは勘違いです。以下の文を、ご理解ください。

 

契約が変わった

Oracle Java 10までは、

Oracle Binary Code License Agreement for the Java SE Platform Products and JavaFX

(Java SEプラットフォーム製品およびJavaFX用のOracleバイナリコードライセンス契約)

という契約でした。全文はこちら(オラクルのサイト)をご確認ください。

 

Oracle Java 11からは、

Oracle Technology Network License Agreement for Oracle Java SE

(Oracle Java SEのOracle Technology Networkライセンス契約)

に代わっています。原文はこちらです。日本語訳はまだないのですが、よくよく考えたらいわゆるOTN開発者ライセンスのことで、Oracle Databaseなど使っている方はなじみが深いはずです。こちらの内容が一致します。

 

Oracle Java 11は、これまでのOracle Javaと同じたたずまいですが、Oracle Databaseなどと同じOTN開発者ライセンスが適用されてしまったのです。

 

裏を取りたい方は、下記より、赤枠のリンクをクリックしてみてください。見事にライセンスの内容が置き換わっているのがわかります。

Java SE - Downloads | Oracle Technology Network | Oracle

f:id:orangeitems:20180926152058p:plain

 

 

開発用途にしか使ってはいけない

これまでのOracle Java10までに適用されてきたバイナリコードライセンス契約は、補足ライセンスの中で、以下がうたわれていました。

A.商用機能

社内の業務運営でプログラム、Javaアプレット又はアプリケーションを実行する目的、商用もしくは本番目的、又は本補足条項のセクションB、C、D及びEに記載されていない目的で、商用機能を使用することはできません。本契約で許可されている以外の目的で商用機能を使用することを希望する場合、オラクルから別途ライセンスを取得する必要があります。

B.開発に関するライセンス供与によるソフトウェアの内部使用

(省略)

C.ソフトウェアの頒布許可

(省略)

D.再頒布可能ファイルの頒布許可

(省略)

E.パブリッシャによる頒布

(省略)

つまり、B/C/D/Eはいわゆる商用でのシステム開発が含まれているため、商用システムJava8を組み込むことは普通にできていたわけです。

 

Oracle Java11以降のOracle Technology Networkライセンス契約では、どうでしょう。

オラクルはお客様に、本契約に明示する制限に従って、お客様のアプリケーションの開発、テスト、プロトタイプ作成、及びデモンストレーションのみを目的として(かつ、お客様のアプリケーションが、データ処理、業務、商用又は本番利用を目的として使用されたことがない場合に限られます)、その他のいかなる目的でもなく、本プログラムを内部的に使用するための、非独占的、譲渡不能の限定的なライセンスを許諾します。

 シンプルにこの記載に凝縮されます。

 

ダウンロードしてもいいんです。使ってもいいんです。非商用利用ならば。本番システムに載せることは決してできないライセンスです。Oracle Java 11のライセンスが変わったことを強調した記事がないので正しい認識を持っていただくために本記事を作成しました。

もっと例えれば、開発用としてOracle Databaseをダウンロードしシステム開発。Oracle Databaseライセンスを購入しないまま本番システムに組み込みそのまま運用するぐらい、違法なことになるのです。今日公開されたOracle Java 11はそういうJavaなのです。

 

サポートがどうこうという問題ではない。契約の問題だった。

どうもセキュリティーパッチが出る出ないの問題にこだわり過ぎていたように思います。こんなに明確にライセンスが変更された今になっては、商用システム開発においてOracle Javaの本番後の有償サポートは必須です。

Oracleへの支払いがどうしても認められないのなら、OpenJDK一択となります。こちらを11からは使うべきです。RedHat社が間もなくRHEL7に出すと思われるOpenJDK 11をLTSで使うのが私は最も手堅いと思います。

 

 

 

Windows Serverのリリーススピードが速すぎる件

f:id:orangeitems:20180925182319j:plain

 

 

Windows Server 2019が2018年10月にリリース

Microsoft Ignite 2018というカンファレンスがフロリダで開催中で、いろいろと発表されているようです。最近のマイクロソフトの勢いはすごいですねえ。

 

www.microsoft.com

 

で、Windows Server 2019がリリースされるという話。

redmondmag.com

Windows Server 2019 will reach "general availability" commercial release next month, Microsoft announced on Monday during its Ignite 2018 conference.

 

早すぎやしませんかね

いやあ・・・早すぎる。まだいらない。

 

Windows 2003 Server

5年

Windows Server 2008

4年

Windows Server 2012

4年

Windows Server 2016

3年

Windows Server 2019

 

・・・って3年ってあなた・・。だいたい2016も、10月1日リリースだったから、ほんとに3年で出しちゃうということですよ。感覚もだんだん早くなってきてますよね。

これ、Windows 10が半年ごとにメジャーバージョンアップするような仕掛けにしちゃったから内部的な変更が多すぎて2016をこれ以上長生きさせるのがしんどくなったということなんでしょうねえ。

しかも、最近は機能に対するセキュリティパッチもどんどん出ますから、3年で勘弁してということですねわかります。

でも、Windows Server 2008だってまだ古い現場では見かけるのに、2008とか2012とか2016が入り乱れてアーーッってなっているのに、2019まで登場ですよ皆様。これはキツいなああ・・。

2016へのアップデート案件とかあるんですが、2019で再検討しなきゃいけないし、そもそもアプリは動くのかいなとかいろいろいろいろ思います。

 

RedHat Enterprise Linuxはえらい

その点、我々の心の安定の源、Redhat Enterprise Linuxはですね。どんどんリリース間隔を伸ばしてくれているわけです。

 

Redhat Enterprise Linux 4(2005年)

2年
Redhat Enterprise Linux 5(2007年)

3年
Redhat Enterprise Linux 6(2010年)

4年
Redhat Enterprise Linux 7(2014年)

5年以上

Redhat Enterprise Linux 8(未定)

 

素敵!サポートも10年あるから今から7を使っても、2024年まで大丈夫だし・・。

 

サーバーOSのバージョンアップ案件はしんどいです

3年なんてあっという間です。中学生が高校生になるくらいすぐです。

このあたりの悩みをMicrosoftはどう考えてるんですかねえ・・。

とりあえず、「またバージョンアップかよお」と悩ましい人が多いと思うので、インフラエンジニアのはしくれとして共感しておきます。

 

 

Windows Virtual Desktopの可能性をインフラエンジニアが検討する

f:id:orangeitems:20180925174347p:plain

 

Windows Virtual Desktopの発表

Microsoftから発表された新サービス、Windows Virtual Desktopが話題です。

 

「Windows Virtual Desktop」発表--Azureベース、マルチユーザー対応の仮想化環境 - ZDNet Japan

Microsoft、「Windows 7」も安全に使える「Windows Virtual Desktop」発表 - ITmedia NEWS

MSが仮想デスクトップサービス「Windows Virtual Desktop」を発表 | 日経 xTECH(クロステック)

 

業界の転換点ともなりうるサービスであり、いろいろとニュースは出ているのですがわかりにくいと思いますので、インフラエンジニア・社内情シスっぽい立場から解説してみることにします。

 

まず、Microsoft 365というサービスを知ろう

Windows Virtual Desktopのことを知る前に、Microsoft 365というサービスを正しく知る必要があります。

 

 

www.otsuka-shokai.co.jp

Microsoft 365は、「Office 365」、「Enterprise Mobility + Security(EMS)」、「Windows 10 Enterprise」が統合されたクラウドサービスです。お客様が安心して導入できるように充実した支援サービスをご用意しています。

 

パソコンを買うとWindowsもOfficeも付属してるじゃないかというのはもう昔の話で、大企業となると何万台のパソコンを管理することとなります。しかも、1個人で、デスクトップPCだけではなくノートPCも取り扱いますし、タブレットやスマートフォンも使います。多数の社員が、Windows 10でデバイスに関わらずシームレスに仕事したいという場合、1つ1つのライセンスを管理するのがもはや破綻している状態となりました。

これを解決するのがMicrosoft 365です。会社のITシステム全体をこのサブスクリプションだけでカバーできますし、月額課金ですので利用者だけ押さえておけばよいのです。最近は上記の例の大塚商会しかりですが、PCだけ、OFFICEだけ、というような煩雑な販売方法から、(Microsoft 365 + Surface)×社員数、とし、付属の「Enterprise Mobility + Security(EMS)」で統合的に管理するというのが、最先端のマイクロソフト提案です。

今私が会社を作るなら断然これにします。PCも含めてリースにして全部月額の経費することで、ぐっと資産管理が楽になるはずです。

 

Microsoft 365ユーザーなら、追加料金なしでAzure上の仮想デスクトップが使えるということ

上記の話はあくまでも、個人のPCレベルの話で、管理機能だけAzureにあるという設計でした。しかしこのPCについて、マルチデバイスの延長でAzure上の仮想デスクトップまで料金の中で付いてくるようになるというのが今回の発表の目玉だと思います。

※まあ無尽蔵に仮想デスクトップのCPUやメモリ、ストレージのスペックを無料で提供するわけはないと思いますが・・、ベースは無料で、追加料金かなあ。

もともとOSのライセンスについては、PCを買えばついてくるので、Microsoft 365のOS部分が割高に感じられがちだったと思います。しかし今回、Microsoft 365に付属するというのですから話が180度変わります。仮想デスクトップが使えるのに、そのための費用が追加でかからないということです。

例えば、競合のAmazon Workspaceでは、月額3000円~12000円程度がかかっています。この中にはOS、仮想マシン、ストレージの費用まで入り込んでいます。

 

aws.amazon.com

 

今回、Microsoft 365ユーザー(Enterprise E3およびE5のユーザー)は無料でこれを使えるというアナウンスもあることから、Microsoft 365の価値が跳ね上がったことになると思います。

もちろん単体で使うユーザーはAzureに登録してOS、仮想マシン、ストレージの費用を支払うだけです。そうするとAmazon WorkSpacesの単なる競合にしかなりません。

AWSとの違いとすれば、Windows 10などのクライアントOSもサポートするということぐらいです。AWSでは純粋なWindows 10はサポートされず、WIndows Server上のデスクトップエクスペリエンス機能でWindows 10っぽいUIが提供されるのみです。純粋なWindows 10が欲しいユーザーにとっては、朗報かもしれません。

 

利用感や基盤技術はどうだろう

技術的にはわかりましたが、クラウド上にクライアントがあることでローカルPCと比べて何かボトルネックがあるのではないか、技術的にこなれているのかと勘繰る方もいるでしょう。この分野はVDI(バーチャルデスクトップインフラストラクチャー)と言われる部分で、歴史がありCitrixとVMwareが大きく先行していました。Microsoft単体で戦っていた時期もあったのですが、Citfixをパートナーとして選んだのは少し前の話になります。

 

japan.zdnet.com

 

それだけ、CitrixのXenApp/XenDesktopに市場優位性があったことに他ならないのですが、これを機にAzure上にVDIを構築しDaaS(デスクトップ as a Service)を進めよういていました。

CitrixはCitrix Cloudなるサービスも立ち上げ独力でVDIの市場をAzure上で伸ばそうとしたのですが、市場インパクト的には地味な印象でした。

 

cloud.watch.impress.co.jp

また、「日本においては、欧米に比べてCitrix Cloudのビジネスが遅れている」としたものの、「パートナーが同様のサービスを提供していることが、その背景にある。ただし、その多くは手動で行っているものであり、Citrix Cloudによってこの課題を解決できる。ここにきて、パートナーがCitrix Cloudの採用に向けた検討を始めている」とも述べている。

 

結局のところCitrixがDaaSの顧客を創造するより、Microsoft 365の付加価値として、CitrixがリードするVDIの仮想デスクトップをばらまいたほうが爆発力があるという解釈でよろしいかと思います。

とすると、Citrixが提供するVDI技術は上記のように歴史も実績も市場競争力も随一ですから、OSやOfficeのサブスクリプションとくっついてしまうとすれば、大きく市場における占有率がぐっと高まるものと想像します。かつCitrixのXenApp/XenDesktopのパフォーマンスは有名です。優位性については下記のCitrixの営業資料を紹介しておきます。

 

www.citrix.co.jp

 

 CitrixはVDIのトッププレイヤーですから、MicfosoftのRDPプロトコルよりパフォーマンスは全然上です。昨今はクラウドゲーミングなど画像をサーバー側で作り出してリアルタイムに圧縮し、低帯域・低レイテンシーでクライアントに届けるという技術が進んでいますので、このMicrosoftのWindows Virtual DesktopがCitfix製だとすると、かなり期待大と言ったところです。

 

まとめ

VDIと言えば構築に数千万かかったうえで、保守も大変なイメージなのですが、ぐっとこのサービスで身近なものになりそうです。

会社のデスクトップは全部このサービスに集約してAzureに閉じ込めて、データもファイルサーバーをAzureに置くことで外に出ないようにして、いろんなデバイスからインターネットで同じように、シングルサインオンでアクセスできる・・・そんなサービスが身近になるのです。

サービスインを待ちたいと思います。