orangeitems’s diary

40代ITエンジニアが毎日何か書くブログ

AIをどう使うべきか。IT業界は人の心と向き合うべき時だ。

f:id:orangeitems:20190501233114j:plain

 

AI教育を国家戦略へ

これからの時代はAIだと言うことで政府はAI教育を大胆に進めるという報道があり、ざわつきが止まりません。

 

blogs.itmedia.co.jp

政府は2019年4月18日、「総合科学技術・イノベーション会議(第43回)」を開催し、AI戦略(人材育成関連)について、議論・検討を行っています。

AI時代に求められる人材育成に関する主な取り組みは、デジタル社会の「読み・書き・そろばん」である「数理・データサイエンス・AI」の基礎などの必要な力を全ての国民が育み、あらゆる分野で人材が活躍する社会を目指しています。

 

AIを作ることと、使い方を考えることは別問題

AIの定義や、基礎技術についてはたくさんの記事や文献が日々作成されいます。ある程度すればカリキュラム的なものもできて、そこに教育が乗ってくると思います。IT業界のシステムエンジニアは意外と冷静に構えています。便利なライブラリー、アプリケーション、サービスが出たらお金を出して買えばいいだけだからです。これまでもたくさんの新技術が出ればのらりくらり習得して対応してきたので、今回も別に恐れる必要はないと思います。

さて、そんなことより。AIが本当に使い物になり本番システムに加わった時のことを前もって考える必要があります。システムエンジニアは本番運用が命です。利用者が安全に使えること。その中にAIが加わってきます。AIが何かを定義するのはある程度自由度を持って考えた方が良いです。将来は振れ幅がありますから、いろんなことを想像しておけば行動が速くなります。AIそのものを作る技術者が素晴らしいものを作ってくれることを信じて・・、私はどのように安全に組み込み、運用するかを考えておきます。

ちなみに、今AIという名前で組み込まれている機能は、私の中ではまだAIではありません。まだ分析の自動化の範囲をはみ出していないと思います。私の思うAIは、人間の心そのものです。そんなレベルには決して達していない。分析が人間よりいくら速くなってもそれは心とは似ても似つかぬものです。サブセットにしかすぎない。

このように、新技術に対して哲学的な思索をすることは実装が終わるまでの時間の有効活用になります。例えば原子力という技術が、非常に人間に対して有用でもあり破壊的でもあるように、技術そのものの可能性と、どう使うべきかという品格や人間に対する安全性は別で考えるべきです。とくに後者は早くから議論を進めると、いざ使う段になって揉めなくて済みます。

ではAIはどのように使えば安全なのか。また何が危険をもたらすのか。AIが人の心のシミュレーションということであれば、人の心が持つ危険性そのものがAIの危険性と言えると思います。社会システムの中で国、企業がありそこに人がどのように機能し、どんな危険をもたらしたかを考えるかがAIのためになるのです。

IT業界は意外とこの手の議論が苦手です。映画の中のマッドサイテンティストのキャラクターがそうではないですか?。社会と疎遠で、技術に強いこだわりがあり、その実装と成功結果に歓喜する。IT業界は基本的にはコンピューター好きの集まりですから、「人の心とは」という問いに対しては関心が薄いのです。特に2000年あたりの人たちは人づきあいに興味のなさそうな人が多かったなあという印象(私の周りだけだったのかもしれませんが)でした。ひところ、心の病気がIT業界に頻発したのも偶然じゃなかったと思っています。2008年ごろの記事を貼っておきます。

 

tech.nikkeibp.co.jp

 

あの頃はブラック労働上等の雰囲気があり、人の心を人と思わないその雰囲気は、あの頃の人たちが「人の心」に無関心だったのではないかと今では思いますね。

ということで、IT業界はAIを本気で本番システムに組み入れようとしているのであれば、一見無縁である、「人の心」に向き合わないといけないのです。数字で割り切れるコンピューターを仕事にしようとして、人の心に向かい合うべきとは皮肉なものですね。

 

人が仕事をするときに最も怖いことは何か

AIを人の心と置き換えて、最も恐れるべきことが「誤解」だと思います。

たくさんの人間が関係して仕事をしているこの世の中で、最も重大な事故は「戦争・テロ」だと思います。戦争・テロによってたくさんの尊い命が失われました。

これを起こすのも人です。なぜ人の心はこのような重大事故を引き起こすのか。これは対立した人間同士における不仲が原因です。なぜ仲が悪くなるのか。ここからは推察ですが、ほとんどの原因が「誤解」なのではないかと思うのです。どちらも自分が正しいと思っている。しかしその正しさが相手に伝わらない。誤解の認識が、「誤った行動」を導いてしまう。その行動を見て誤解が強化されてしまう。行動は後から消せませんからね。

AIもまた、システムに組み込むと、「誤解」により欲しくなかった行動を行うのではないかという仮説を持っています。AIにたくさんやらせようと思ったけれど、「誤解」が多いので、AIは参考結果にしか用いないという事例がすでに複数あります。

 

www.itmedia.co.jp

 ちなみに、ワトソンが「不合格」にしたESは、必ずスタッフが再度目を通しますので、受験者のESがワトソンだけで落とされることはありません。

 

この人事部の方は感覚で、AIは誤解をするかもしれないので、最後は人が目を通そうというリカバリーを実施しています。このように、AIは人の心と同じく、100%信用してはいけない。さらに言えばAIは誤解をする機能を持つと思うべきで、できるだけ誤解しないように工夫して育てていかなければいけない性質のものだと思います。

 

www.businessinsider.jp

アマゾンは、採用AIツールの開発に取り組んでいた。だが、AIツールは女性に対する偏見を示したとロイターは伝えた。

エンジニアは、AIが女性に対して好意的ではない評価を行ったのは、採用すべき人材の学習に使用した履歴書の大半が男性の履歴書だったことが原因と突き止めた。

だが、修正がうまくいかず、同社は2017年初めにこのプロジェクトを中止したようだ。

 

こちらも、AIが誤解することを人間が見抜いて利用を中止したパターンです。

AIが悪いのではなく、AIは誤解をするのです。誤解をいかにしないかは人の心の場合「教育」が大事ですし、人格が大事です。

誤解をしない完璧な人間がいないように、完璧なAIも存在しないのです。AIをこれから日本が強化していくということは、人の心と向き合うということと等しいです。AIに完璧を求めたらいけません。誤解することを前提に、どうすれば安全に利用するかをこれから考えなければいけません。

 

まだまだIT業界の中でのAIは子供なのですが、いずれ成長し成人となり、就職するでしょう。その時に「どう使うか」を正しく準備しておく必要があります。今は技術先行ですが、哲学的な部分をどう補完するか、無視されやすい部分ですので気を付けて、考えていきましょう。「今度のプロジェクトではAIを使うよ」という時がいずれ来ます。