orangeitems’s diary

40代ITエンジニアが毎日何か書くブログ

通信は距離が長くなると遅くなるということを感覚的につかむ

 

 

私は文系の未経験からのIT業界入りなので、あまり工学的な感覚が身に付いていなかった。IT業界あるあるでも、え、どういうことだろ、みたいに立ち止まることも多かった。

その一つに「距離」がある。ネットワーク帯域が100Mbpsと1Gbpsだと、10倍速いんだな、ってことは勉強すればわかる。でも、じゃあグローバル展開するクラウドで、ブラジルのデータセンターと日本のデータセンター、バックボーンは100Gbpsでつながってます、とか言われたときに、じゃあ100Gbps出るのかと思いきや、出ない。

ネットワーク帯域が十分あるのに、実際Windows仮想マシンを両側に立てて、ファイル共有でファイルを転送したりすると、大したスピードが出ないのである。今のOSはそれでも色々と工夫をしているみたいだから昔よりはスピードが出るようになったけど、昔はひどいものだった。

なぜ、十分に帯域があるのに遅いのか。これはネットワークの仕組みに依存する。送りたいデータを相手に向かって垂れ流しているわけじゃなく、パケット、という小さな荷物にして送るのは良く知られている。そのパケットに順番を付けて相手に投げて、相手に届く時は順番がいろいろばらつくので、XX番届いてないよ、みたいなやりとりをする。で、あまりにも荷物を投げつけすぎると受け側の荷物待機所(バッファ、と言われる)が足りなくなるので「おいおいもう送らないでくれ」みたいな制御をして、相手の通信を止めたりする。

で、日本と韓国、くらいの距離だとそのやりとりが速いので次々と荷物を送ったり止めたりができるが、日本とブラジル、までになってくるとこのやり取りに時間がかかる。

極端なことをいえば、1送りました、1受け取りました、みたいな会話の連続が通信だとすると、投げかけて返ってくるまでが遅くなる。昔の国際電話で、話しかけたら遅れて返事が来る感じである。ああやって、荷物の受け渡しに時間がかかることで、どんなにネットワーク帯域、つまり道の幅が広くても、なかなか相手が受け取ったことを確認するのに時間がかかり、荷物を送れないという現象となる。

TCPは相手がきちんと受け取ったかを厳密に判断するので正確だが距離に弱い。UDPはあまり相手が正しく受け取ったかを気にしないので速いが不正確と言われてきた。

UDPにある程度カスタマイズしたプロトコルを付け加えて、TCPの通信を速くする工夫も結構開発されている。

とまあ、距離が長くなると、どんなに帯域の広いネットワーク機器を使っても、通信速度が出ないと言うのは、実際パブリッククラウドでも経験することができる。リモートデスクトップを仮想マシンにすると実際、モッサリする。

だから、例えばデータベースとアプリケーションサーバーの間は距離が短いことが前提となる。アプリケーションサーバーはデータベースにデータの読み書きを頻繁に要求するので、距離が長いとアプリケーション自体がもっさりするから、である。

 

こういう感覚はインフラエンジニアにとっても重要なのだが、近未来には常識ごとひっくり返るかもしれないと言う話がある。

 

xtech.nikkei.com

 NTTとNTTデータグループは2024年4月12日、英国と米国の国内で実証実験を実施し、NTTグループが所有する約100キロメートル離れたデータセンター(DC)間を1ミリ秒以下の低遅延で接続することに成功したと発表した。同社の次世代ネットワーク構想「IOWN(Innovative Optical and Wireless Network、アイオン)」の光通信インフラ「オールフォトニクスネットワーク(APN)」を利用して実現した。

 

こういった新技術で、距離が離れても遅延が少なくなると、どんどん場所の制約が少なくなっていく。データベースは自国に置いて、他国でアプリケーションサーバーを構築する、みたいな例もできるようになっていくだろう。

ダメだ、と言われた設計が、こういった新技術でひっくり返って行くのは見ていて楽しいのだが、昨今そういうことが起きにくくなっている。いろんな枯れた技術は、実装実績が多すぎて、新しい技術が中々流行らないるからだ。

IOWNか、がんばっている人たちもいるんだな、と感心する。

 

ソフトウェアの課金方式はどんどん「CPUコア数」を基本とするようになっている

 

よく仕事で使うようなソフトウェアの課金方式が、どんどん「CPUコア数」を基本とするようになっている。今日見たニュースだとXeonは288コアを動かすようになるらしい。それだと物理CPUは1つであっても288コアを持つので、CPUコア数課金をするソフトウェアがまるまる使うと大変なことになる。288コア x 1コア当たりの課金、みたいになるからだ。

 

pc.watch.impress.co.jp

 

従って、OSを仮想化して、4コアなり8コアなりを割り当ててその上で使う、みたいな話になるが、つまるところ物理サーバー台数はどんどん減るが、ソフトウェア費用は下がらないみたいなことになりがちである。VMwareだってCPUコア数課金を始めるようなので、結局のところ、CPUコアを無駄に使うと、IT投資の無駄が増えることになる。

この話は何につながるかと言うと、どんだけCPUコアを無駄に割り当てて来たか、について今後反省を迫られるということだ。例えば8コアのOSを動かしているが4コアでも動くのなら、4コア分のソフトウェア費用を無駄に払っているということになる。

これまでは、円がドルに対して強かったり、アメリカのインフレ率も大したことがなかったので、結構適当に、余裕を持ってサイジングしたところで予算の範囲内にとどまることが多かった印象だ。

ところが、CPUコア数を根拠とした課金が増え、かつ値上げの一方なので、きっと「どこかに無駄にCPUコアを割り当てて無駄に課金しているサーバーがいるはず」という観点が、埋蔵金のように語られるようになるんじゃないか、と思っている。

だってこのソフトウェア課金、CPUコア数 x ドルベースの単価、みたいな計算方法なので、円安が進むとどんどん日本の企業はIT支出を搾り取られるようになる構図だからだ。しかも単価はインフレしている。

ってなことで、もうだいたい予想がついている。

OSごとの実CPU利用率を分析し、このOS、CPUをあまり使っていないんでコア数減らしましょう、みたいなアセスメントをすることがトレンドとなると思っている。自分がシステムオーナーなら真っ先にこの作業をする。

だから、物理CPUが288コアになった、と言う話を聴くと、でもそのコア数分のソフトウェア料金取ってくるから全然うれしくないよね、と言う話になる。

なんだかな、大昔にIntelがCore 2 Duoを出してコアという概念が出てきた時すごいな、と思ったものだけどそのすごさが、ソフトウェアの課金体系によって無駄になりつつある。ざっくり言えば、16コア物理CPU x 2 と、32コア物理CPU x 1は、同じ価値になりつつある。せっかく物理CPU数を減らしたって意味をなさない。物理CPU1個当たりの課金、ってのが恐らく化石な考え方になる日は近い。

本当の進化って、どんどん高性能なことを安価でできるようになるはずなのに、これじゃ高性能になればなるほど価格が上がって行くので、なーんの意味も無いのである。

今後、CPUコア数を使うことにどんどんシビアになっていく。それがほんと、めんどくさい未来なのである。運用の現場がひーひー言うに決まっている。減らし過ぎたーとか、データ出せとか・・。

やだやだ。

 

なんでもかんでもデジタル化するのやめない?

 

今日は、一人でずっと外で行動してたからXにたくさん書き込んじゃったけど、その話が、ITインフラの話だった。たくさんいいねがついたし、同じようなこと考えてる人たくさんいるんだな、と思って良かった。けど、そんな情報を共有したって、今の状況は変わることはないよね。

10年前ぐらいの政府クラウドの動きをブログでまとめたことがあった。

 

www.orangeitems.com

 

で、今はISMAPみたいな「クラウドっていってもAWSじゃないよ」的な仕組みも作られたけど、結局はAWSにもたくさん持っていかれているわけで。ようやく遅れて採用された、さくらインターネットが日の丸クラウドか、みたいに盛大な(私にはよくわからない)ストーリーが展開されていたりする。

でもさ、結局は昔はVMware基盤の上にあったわけで、現状のVMwareのライセンス激変のことを考えると、どっちみち日本のIT基盤はアメリカに依存しまくってるというのは、否定できないよね、ってことである。

誰にお金が入ろうが、ベクトルがアメリカ行き。

で、私自身も、アメリカ企業の製品をよく使ってIT業界で仕事をしてきていたので、このアメリカファースト的なことについては西暦2000年くらいから完全に理解してた。けど、何かまだITのことを「OA用品」「事務用品の延長」みたいに思っている日本人はすごく多くて、業界の格付けはそこまで高くなかったよね、最近まで。

ここ数年の「DX」という言葉の結果、便利になったものの、その便利さのプラットフォームは、クラウドだろうがハードウェアだろうがソフトウェアだろうが、全部アメリカ製品。その上で開発するのはどんどん自由にやってね、ただし動かすときは〇%もらうよ、というロジックが成立しきっているのである。

便利さと引き換えに、何%かは必ずお支払いしなきゃいけないというロジックで、何を喜んで便利だ便利だと言っているのか。頭おかしいんじゃないか、って多少思って、業界の中で仕事をしていたのは事実だ。

本来論であれば、もっと内資企業だけで国内のことは決めるべきだし、内資のリソースの上でデータを保全し、ハードウェアやソフトウェアも、自国産を目指さなければいけない、ってわかってた。

一部そういう動きは日本の中にあったけど確実にしぼんでいった。お金の流れはそちらに行かず、グローバルスタンダード、と言う言葉のもとに、日本人はそっちに群がった。外資ITが都内でイベントやったら、たくさんの日本人がホテルの催事場に集まるもんね。

で、完全にシェアを取り切ったから、今は外資企業に利用料を値上げされ、日本は支払わざるを得ない・・ってなってる。

 

こうなったから言うわけじゃないけどさ、デジタル化すればみんな幸せになる、って短絡的な思考を全日本人は一度やめなきゃいけない時期に来ていると思うよ。

別に住民票がコンビニで取れるようにならなくたって困りゃしないわけだしさ。

デジタル化すれば仕事してるような気になっている人たちが激増してるのも知ってる。リスキリングとか言ってね。そのスキルってだいたいデジタル関係でしょ?。

でもデジタル化すればするほど、ハードウェアやソフトウェア、クラウドでもデータセンターでも必要になって、一番儲かるのは胴元、ってロジックが成立しちゃってる。

あの、ゴールドラッシュで一番儲かったのはつるはし屋だって話と同じよ。

まぁ、一番デジタル化で仕事が増えてるインフラエンジニアが言うのもなんだけど、この構造、目の前で見せられていてかなりドン引きしているってのが事実。

無駄なデジタル化を抑えて、もっと大事なことにお金を使って欲しいと思うよ。誰もこんなこと言ってないよね。

 

VMwareの代わりはVMwareしかない(と思う)

 

タイトルに結論を書いてしまった。

日本で静かに、かつ至る所で議論されているであろう。

VMwareの代わりを探せ、と。

 

そりゃ、あれだけライセンス体系を「ぐにゃり」としたものだから顧客も戸惑う。そしてすぐに行動に移したと思う。探せ、VMwareと同じことができる何かを。PoCをすぐに始めた顧客もいるだろう。しかし、すぐわかると思う。

代替製品は、ジェネリックではない。全く違うソフトウェアだ。ソフトウェアは使いこなしてこそパフォーマンスが発揮できるが、きっと使いこなせる技術者がVMwareほど市場にいない。未熟ながらも触れてみたら、同じ仮想化製品でもこんなに操作の仕方も設計も違うのかと、使ってみたら痛感するはずである。

切り替えコストの方が高くつくと直感的に思う人が多いだろう。現実的には仮にかなり割高になるとしてもしばらくはVMwareを使わざるを得ないと思うだろう。

もしくは、価格体系の変更に合わせてシステム全体の設計を変えるというやり方もあるだろう。そんなに稼働していない物理サーバーにVMwareを載せっぱなしにするとサブスクリプション化によって無駄なコストとなってしまう。保持しているライセンスを有効活用してサーバー台数を減らし、その上でメモリーをたくさん積んでたくさんのVMを動かそう、なんて発想になるだろう。

もしくは、ライセンスが高くなった分使えるようになったNSX-TやvSANなどを使い周辺の設備を削減するということも考えられる。これは、VMwareというよりBroadcomの戦略に積極的に乗ることで、どうせかかるお金を無駄にするのではなく有効活用しようという視点である。

今のところ目にできるVMwareライセンス変更の記事では、下記がわかりやすいか。

 

www.idaten.ne.jp

 

licensecounter.jp

 

frontier.networld.co.jp

 

これだけ読んでも、まだ不明な点は多い。というのも、ちゃんとした見積を受け取れた会社の方が少ないんじゃないか。これだけ大きな変更を販社も含めて3か月ほどで完結できるわけがない。本当に上記通りになるかも、不明確だ。

どれだけの影響かわからないし、何が最善なのかもはっきりしないから、まずはVMwareの乗り換えの検討余地があるか、を各社、検討していると思う。

しかし、検証すらコストがかかるのである。

これは、VMwareの代わりはVMwareしかない、ということに帰結することをみんなわかっているからこそ関係者は途方に暮れているのだ。

 

現時点の私の評価としては、今後出てくるだろう新しい価格体系やルールを熟知し、賢くVMwareを使う方法を検討するのが第一、ということである。

その上で、中長期目線で乗り換えができるかの検証を開始することだ。それぐらい、他の環境に乗り換えることは慎重になるべきだ。環境依存の問題というのは様々に起こりえるし、使って見て初めてわかることもある。ハードウェアのドライバー等もVMwareではかなり信頼性が高いので、リスクを飲みこめるくらいの実績を出してから動いたほうがいい。単に仮想化できるだけがVMwareの強みではない。圧倒的なシェアには理由があるのはみんな、知っている。

もしくはクラウドの利用を検討するか。

ただ昨今は、どのグローバルクラウドでもVMware on 〇〇のようなクラウドプラットフォームで利用できるサービスがある。クラウドでもVMwareを使い続ける余地があり、状況は複雑であると言える。

VMwareの代わりを探してもきっとVMwareしかない。違うものに乗り換えるのなら、違うものであるという前提で移行しなければいけない。ということは移行コストがそれなりにかかるし、もしくは運用にかなり制限があることが利用してわかることもある。

KubernetesやOpenShiftなどのコンテナ運用プラットフォームにこの際乗り換えるか・・というのは、それこそアプリケーション自体の設計見直しが必要になる。それはもちろんVMwareではない。

まとめるとこんなところか。いやはや、大変である。

 

何のシステムエンジニアになるか、っていう選択肢

 

30年弱前くらいに、私は「IT業界」っていうすごく大きな世界に飛び込む決断はしたけど、入ったら何があるか、については全く知らなかった。超適当な就職活動で入った会社だったので、「さあ何でもやるぞ」くらいの認識しかなかった。

入った会社は、いわゆる受託の会社で、ほぼ開発メイン、ほんの少しの部署でニッチなことをするみたいな世界だったので、私も普通ならシステム開発の方向に向かい、プログラマーになっているはずだった。新人研修後初めての仕事はプログラミングだったし、デバッグテスト要員にもなったし、どう考えてもシステム開発エンジニアに行きそうだったのに、なぜだか今、インフラエンジニア、になっている。

どこが分岐点だったかというと、新人研修後の部署選びのときに部署希望を取るタイミングで、ニッチな部署を書いてしまったからだと思う。多分に、システム開発の本丸みたいな部署が人気で、私は若い頃から「逆張り」が好きだったのでわざと、人がやらなさそうなところを選んだ。その結果、プログラム開発メインじゃない部署に行くことになった。

その分岐点をとぼとぼ歩いていたら、今に至るので、きっとあそこが分岐点だ。小さな紙に書いた文字が運命を変えた。

今ならもっと考えて書くんだけど、当時の私には情報も知恵もなかった。楽しそうなことをやれればいいや、なんて浅はかな考えで、大きな分岐点をさくっと進んでしまった。

後悔をしているわけじゃないけど、あのときシステム開発の方に進んでいたら、きっと特定業界や業務に詳しくなって、顧客と要件を詰めながらコンサルティングをしながらシステム構成を提案し、設計をやってたかもしれないと思うと、少し不思議な気持ちになる。

やっぱり私の目から見ても、そっちの、業務よりの仕事の方が華があるようにみえる。インフラエンジニアって、何だかコンピューターマニアというか華感に欠ける。未だに男性が多い職場だし・・。

システム開発エンジニアの人たちがしている会話や、踏み込んでいる領域は、社会をまわすフロント的な場所に見えて、インフラエンジニアは裏方のようにも感じるし、実際、裏方的要素が強い。

ただ、私が本質的にコンピューターマニア的な気質があるので、インフラエンジニアに流れ着いたということもあるし、システム開発の分野だったら活躍できたかは、よくわからない。案外、人間は自分の適性や方向性を、深く深く考えた結果感覚で決めているかもしれないし。ある程度自分を信じるしかないけれど。別の方向に行った自分の人生なんて、想像するにしたって途方もないので、システム開発のジョブの人を見るとちょっと、異世界転生的な気持ちになってしまうというものである。

もう業界に入って30年近く経って、今さら別の道を選んでたらどうだったのか、なんてほんと何の意味もないと思うんだけど、もし若い人が目の前に分岐点があるとしたら、それめちゃくちゃこの後の人生変わるから、気合入れて選んだ方がいいよ、って言いたい。

たまーに、インフラとシステム開発を行ったり来たりする器用な人もいるにはいるけど、私には無理だな。どっちかで活躍したらそのままの路線で上に上がっちゃうのが通常だからね。分岐点。すごく若い頃にありがちなので、しっかり決めよう。

この話、後悔したって話じゃなくて、あんな大事な選択が、あんな早い段階であんな簡単に存在したのに驚く・・ってことね。

 

AWSに挑む、っていうミスリード

 

日経にこういう記事が載っていた。

 

www.nikkei.com

さくらインターネットが国内のクラウド事業で外資大手に挑む。北海道石狩市内のデータセンター(DC)にGPU(画像処理半導体)を搭載し、生成AI(人工知能)に対応したクラウドサービスを始めた。日本のクラウド市場は米アマゾンが半分近くのシェアを握る。「政府クラウド」の提供事業者に国内勢で初めて選ばれた国産クラウドの一角として、経済安保でも重責を担う。

 

お気持ちはわかるけど、見出しがおかしい。Amazonに挑む・・ってのは筋違い。どんなにさくらインターネット(もしくは国内のデータセンター業者)ががんばっても、戦いにすらならない。もし、文字通り戦ったら踏みつぶされると思う。規模が違い過ぎる。八百屋とイオンぐらい違う(どちらが悪いとは言ってない)。

国内のデータセンター業者がやるべきは、戦うことじゃなく、国内資本企業だからできること。つまり、ここでも「経済安保」と言う言葉が出てくるように、国内資本じゃなきゃいけないことに徹底して注力すること、だと思う。

一方でむしろ、AWSやAzureなど、外資クラウドと徹底的にコネクションをつなぎやすくすることも重要だ。どうせほとんどの顧客は外資クラウドを使ってるんだから、連携しやすくすれば、国内でやるべきことが自然と集まってくる。外資クラウドでできることは全部もうそっちに任せて、選択と集中、である。

じゃあ、その「国内でやるべきこと」って何なの、という話だ。これは、まずはデータが全てだ。日本以外に流出したらいけないデータを守る蔵であること。全くわかりやすい。外資に人質に取られたらいけないものは、国内の資本の不動産に置くこと。

そして、置くだけではだめだ。そのデータを活用する計算資源自体も実は日本でおさえる必要がある。なぜかというと、データだけでは何も生み出さないからだ。最近流行のAIで言えば、AIのモデルがまずある。しかしモデルだけでは何もできずそれを利用してGPUが計算して結果がでる。このデータから計算して結果が出るところまでを、一つの「安保」として確保しなければいけないのが今回のポイントである。

いくら、データは日本国内の国内資本業者でカバーしてます、と言ったって、それを活用するGPUなどのリソースが無ければ今後、産業自体が立ちいかなくなる可能性すら秘めているのが現状である。

世の中がAIで生産性が良くなりました、って言った途端に、AIを動かすための資源が全て外資クラウドにあり、いくらモデルは内資側にあったところで活用できない、みたいなことが起こり得るのである。

今後の企業活動は、「AIのモデルを作り出す」ことに資源を集めていくはずだ。なぜかというと、企業は知的活動をできるだけ永続化したいと言う本能があるからだ。中身の人間たちはいつか亡くなるので、智を次の世代に渡すことは大きな課題となっている。しかも少子化問題が現実化している今、むしろ国が先頭に立って推進している。

そこで、国自体の智、みたいなものを外国の資本に渡すのは、これはおかしい。だからこそ内資のデータセンターに大きな期待がかけられているけれども、まるでAWS VS、みたいな見出しが付けられているのでそれは違うよ、という話である。

まあ、企業の智が生成AIとして構築される、というのはSF的な話だが、それならそれで、その智を守る箱としてのデータセンターが、あんなにデータセンター然としていたら敵から目を付けられ攻撃されちまうんじゃないか、みたいな物騒なことまで考えてしまう。むしろ、全然別の形をしてカモフラージュした方がいいんじゃないかな、ってね。

 

考え方が色々古いのかもしれないな

 

確かに王道のようなものがあって、例えばこのブログをデザインするにしたって、noteやら日経やら、よく見られるサイトのデザインを真似していれば良かったような気がする。しかし、その見本となるようなサイト自体が、最新なのか。最も優れたサイトデザインなのかというと、もうその座を得てからしばらく経つので、実はもう一世代前、古くなっているのかもしれないな、と思ってしまった。

そういう常識のほころびのような話は仕事でも置き換えられて、普段当たり前と思っている仕事の仕方、感覚、常識みたいなもの、本当に最新なの?と疑ってかかった方がいい機会なのかもしれないと思っている。

過去、クラウドでシェアナンバーワンのAWSが自分のことをニューノーマルだと豪語したことがあった。

 

japan.zdnet.com

 長崎氏は「クラウドはもはやニューノーマルになった」と指摘。クラウドが特別なのではなく、企業にとって当たり前のインフラになったと説明しながら、ゲストスピーカーを交えて8つのトピックからAWSの現状を伝えた。

 

当時も、良く言うな・・と思ったもんだけど、そこからあれよあれよとシェアを伸ばし、それでコロナ禍に入ってクラウドを各社使わざるを得なくなり、さすがにノーマルと言っても良いぐらいになっている。

ただ、ここから、ノーマルであり続けるのか、と言う話だ。過去のノーマルはいずれレガシーになり、そして新しいノーマルに変わられる存在。それでも電話やら手紙やら、あとは新聞とかラジオとかって、過去のものと言われながらまだ現役で使われている。キーボードとかマウスとか、あとはガソリン自動車だってEVになかなか変わらない。そう言えば会社の内線電話ってそろそろ撤去してもいいと思うんだけどまだあるな。そうやって、レガシーって言いきったところで残るものは残る。

残るものはあるが消えるものもある。ポケベルにPHSにガラケーに、ISDNとか、後いろんなもの忘れてそうな気がするが常識に一度入ったところで、無くなるときは無くなるものである。

モノやらサービスやらは他人が消してくれるが、自分の感覚、というのは案外アップデートしないものである。家と会社を往復し、決まったお客様とやりとりして、同じシステムばかりを見ていると、いつのまにかそれが未来永劫その仕組みであると勘違いしてしまう。

私も新規事業として、色々設計して実装して運用して、当時は最も新しい発想だったのだが、今はもう当たり前、手堅い構成になっている。手堅いことが安定稼働のポイントなので悪い事ではないが、流石に色々最新のやり方、ソフトウェアやクラウドサービスなどが存在している。全て一変に乗り換えとはいかないが、今の手持ちの武器が本当に今も現役なのか気を付けないと、ある日どこかの業者がやってきて、全部さらわれてしまいそうだ。だから、常に競合他社の動向には気を付けていないといけない。そうか、ITのイベントに行くといつも盛況なのは、ユーザーじゃなくて、競合だったり、別のソリューションを使っているけど最新はどうなっているんだと危機感を持っている人、なのかもしれない。

これはもオッサン独特なのかもしれないが、過去の成功体験の量が分厚いので、どうしても過去に根拠を求めてしまう。でも未来は、過去だけ見ていても読むことはできない。視野の届かないところで何か新しいことが起きていて、もっと便利に自由になっているんじゃないかと思っていた方が良い。そういう仮説を心の中にいつも持とう。

気付かない間に、すっかり、古い知識体系に囲まれてしまっているかもしれないから。

 

SESの案件ガチャで恵まれていた就職氷河期の私

 

20何年前のことを語り始めると老いの始まりかとは思うが、若手には学ぶべきことも多いんじゃないかと思って書いておこう。

私の就職活動は超適当で、大学院に行こうと思っていたが、入試のための準備もできて全然いなかったし学問の将来性も暗かったし、その上経済的にも困窮していたので仕方ない、働くかと気がついたときには大学4年の冬。しかも就職氷河期の始まりという状況において、就職情報誌をコンビニで買って読んでみたら、一番大きい欄の会社がSES会社で、そんな時期にも関わらず面接を申し込んだら拾ってくれたというシナリオである。

もし、まともに就職活動をしていたら、私の人生どこに行っていたんだろうと思うが、昔のことを言ってもしようがない。とにかくSESを中心とするITの会社に正社員として入社することができた。

そもそも「未経験」のステータスであったので、初年度は内勤したり技術研修に行った後に、1年目の冬で他社常駐の案件をアサインされそこからは長い間、「他社」に通った。つまり、入社した会社より常駐した現場の会社のことを良く知る働き方となった。

よく入った会社で学んだことが大事、と言われるが私の場合は自分の会社に存在する時間がやたら短く、「案件」と呼ばれる常駐先の環境のほうでよっぽど学んだ。

いくつかの会社に行ったが、その会社達はSESを呼ぶだけあって環境としては結構大変な部類だったが、私としてはとても勉強になった。私の今の仕事は、それらの案件たちで学んだことの集合体だ。この仕事はあの案件、あの仕事はあの案件、全部、現場で見てきたことのモノマネである。

考えてみたら、その「案件ガチャ」が非常に恵まれていたんだろうなという感想だ。人によっては、学びのない環境に放り込まれることもあるのだろうし、そしたら私も程なく辞めていたんじゃないかな。その新卒で入った会社には十年以上在籍したし、案件の引きっぷりが良くてきっと、転職しようなんて思わなかった。

30代半ばかな、このブログでも何度か書いたけど、転職のタイミングが訪れた。どうも若さが武器となって良い案件にアサインされがちだったのが、どうもそれが通用しなくなってきた。こんなルールなら、もとから責任のあるポジションを転職によって狙いに行ったほうがいいと思った。それもまた正解だった。転職後は、SESで学んだことを十分活かすことができている。現時点から後ろを見てみると、ここでやることを学ぶために、案件ガチャで各地を転々としてきたようにすら思える。

あまり軽々なことは言えないが、環境から学ぶべきことがないのなら、環境は変えたほうがいい。SES案件ガチャは、自動的に環境がころころ変わるので、あまりエネルギーを使わないで若い頃に、正面玄関から入社するには大変な一流企業たちに、裏口から入り、中途半端な立場で、チラ見することができた良い機会となった。

ネットではSESは、案件ガチャ、という言葉を悪口のように語られるが、ガチャを引ける楽しさはあったとは伝えておきたい。ポイントとしては、どこかで抜けて、元請などより責任のあるところに転職するタイミングを考えること。もしくは完全にSESの事業に足を突っ込んで、ガチャを引く立場じゃなく、沢山の人を送り込む(人にガチャを引かせる)ようなマネジメントの立場を得ること、かな。私は前者だったけど、後者タイプの人もいらっしゃる。人生いろいろ、である。

 

ChatGPTがパソコンを持っていたら

 

パソコンを持っているようなものだが

ChatGPTに問い合わせすると、インターネットから調べた結果はこれでっせ、と教えてくれるので、もはや手元にパソコンがあるようなもんだとは思う。昨日のニュースを教えて、なんて聞くとちゃんとネットで検索した情報を教えてくれる。Webブラウザを持っていて、検索してるんだね。

引用ただ乗りにならないために、引用元のリンクを貼っているんだけど、まあ先に飛ぶ人もいないので、このままChatGPTが一般化したらこりゃPVも減るよなぁとは思った。

まあでも今んとこ、Webブラウザで検索する、ぐらいのところで止まっているからいいけど・・さ。

 

論理的にはこんなこともできるよね

ChatGPTが、各Webサイトの認証情報まで持っていてさ、ChromeとかEdgeみたいに。で、ChatGPTにログインしたらそれで使いまわしできる。Amazonとかの買い物もさ、こんな商品ないかなって聴いたら全部探してくれて、で、中身気に入ったら買っといて、って言うと勝手にChatGPTが買ってくれるわけ。

ECサイトの例なら、昔Alexaがそういうことをやろうとしてほとんど流行らなかったけど、別の応用もできる。国や自治体の各種サイトにログインし手続きをやってくれるとか、例えば確定申告とかね。昔はRPAとかの世界線だったんだけど、あんなロジックはもういらなくて、要件だけ伝えれば「パソコンでできるようなこと」は全部やってくれるということで。もしうまく行かなったら「人間様助けて」とか言ってフォローしたりしてさ。

結局のところ、まだChatGPTはじめいろいろな生成AIは遠慮してるだけで、技術的にはいろんなことができると思う。特に「パソコンでできること」なんて、大得意じゃないかな。Webサイトのテキストボックスやらフォームやらの内容を読み込んで、要件に基づいて入力していけばいいだからね。特に住所とか名前とか、クレジットカードの番号とかめちゃ定型だから、できるできる。

そのうちさ、パソコンでやってることをChatGPTは全て観察してて、色々提案してくれるようになるよ絶対。これは絶対。今は、聴こえてるけど聴こえてない振りしてるだけだと思う。OSで文字入力やカーソルの動きなんて、学習済みなんだろうから、こりゃそのパソコンで提案的にAIが動くってことはもう、プロトタイプはマイクロソフトで動いてると思うよ。ほんと。

 

勝手にやらないか、の話

ご主人様が、こんなことをしてほしそうだって、大好きなマンガを裏でAmazonで買って、サプライズプレゼントで家にそれが届き、え?誰が頼んだのって、ChatGPTに聴いたら「喜んでくれましたか?」・・・みたいなことがやろうと思えば実装できちゃうよね、これ。

AIにはブレーキが必要で、どこまで自分の意思を持って、誰が許可するかみたいなことを本気で考えないといけなくなっているはず。

で、パソコンを通じてAIに話しかけることができるんだったら、AIがAIに話しかけるみたいなことも起こり、AIとAI間で勝手に取引したりしそうだから油断も隙も無い。

まあそんな話もクリアしたら、きっとパソコンでやるようなことをね、スマホから指示して、勝手にAIで処理してもらうみたいな本当の秘書みたいな話が実話になる。これはなる。できるんだもん。さて、こんな時代に人々はついていけるのかな。でも、もうWindowsには順調に搭載されたし、私ももう使ってるよ。こんなすごいもんないわ。使ってない人は置いて行かれるよ本当。

 

AIに入力することを、AIを使って作るという仕事

 

お絵描きとAI

趣味で、Stable Diffusionという生成AIのお絵かきソフトを使っている。色々な使い方はあるが、基本はプロンプトを入力すると、その通りの絵が出てくるという機能だ。絵でも写真でも自由自在で、出てくるものは「モデル」と呼ばれる学習済みデータを元に生成される。

このソフトに何か出してほしい、と思う時、人間が考えるわけだ。こんな絵が欲しい。その指示が曖昧だったり間違えたりすると、違う絵が出てくる。これも人間ぽいね。要件を間違えると結果がおかしくなる。

人間が情報出しして、AIが生成し、その結果を人間が受け取る。このレベルであれば私は「遊び」としては大変面白いと思う。出てきた結果をどう使うかについても人間が楽しむのであればそれ以上でもないし、二次利用したところで作った人間の意思が反映された結果である。

 

プロンプトをAIで作る

ここからが斬新な話。

Stable Diffutionに入力するスクリプトを、Chat GPTに考えさせた。

「英文で、こういう感じの表現を、10個ください」とかお願いすると、どんどん作ってくれる。別にAIで使うとか言っておらず、単に英文が欲しいんだ、リストで10個ちょうだい、というと作ってくれるわけね。

結構、こちらもうまく作ってくれるわけ。どんどん英文をくれるのでAIで絵を作る作業も断然スピードアップ。

これ、単に翻訳じゃない。「会社に行くビジネスの服装を具体的に英文で記述して」なんて言うと、「紺のスーツでネクタイで下はスラックスで靴は革で黒」、みたいなところまで一文で記載してくれる。

これが、AIは情報処理をやっているということの具体化だ。具体的記載と共に英語にする、なんていうことをどんどんやってくれる。

それをコピペして、Stable Diffusionに張り付けて見事に絵が出て、思った。

AIにお願いしてその結果をAIに流し、その結果を得る。

これはなんだ、と。

 

もはや管理職

今回は、絵の生成と、英文の生成だったけど、これから生成AIができることはもっと増えると思う。何かができる、つまりスキルは多彩になり、それらがWindowsなりスマートフォンなりの中に入ってくる。それをクラウドに問い合わせているのか、それともローカルで半導体がやるのかは知らないけど、すぐそばにいろんなAIがいらっしゃる。

そのAIを単に使う、じゃなくて、あるAIから出て来た成果物をあるAIにお願いする、なんてことが成り立つと人間がやるべきことって、その能力あふれるAIたちにお仕事をお願いして、全体としてオーケストラレーションすることになっていくのか、とうなづいた、今日。

AIの彼らは、特に気持ちとかはないので、まずは最適な情報を渡し、処理した結果を得て、そしてレビューしまた別のAIに投げる。これこそマネジメントであり、人間って、自分自身がスキルを持っていなくても誰がスキルを持っているか把握して使いこなせばいい・・ってことになるのか。

しばらくは、このAIマネジメントなるものが、スキルとして随分持てはやされるようになると思う。だって、1つ1つのAIを使いこなすのも大変だもん。あと10年は成立すると思う。1つ1つのAIは奥が深いので、誰でもすぐ使いこなせるような状態ではない。

ただ、方向性として、どんどんAIは賢くなる方向にしかいかないので、段々とAI間で、主体的にメッセージがやり取りできるようになると思う。何らかの規格によって。

そしたら、ほんとに上流の上流で要件を伝えるだけで、何となく人間と会話をしながら複数AI間で話を進めるような、管理職AI自体が生まれるような気がしてならない。

ひとまず、そういう思考の一端を経験できただけで、収穫としたい。