orangeitems’s diary

クラウドではたらくエンジニアの日々の感想です。

AIに人格を持たせないととんでもないことになるという好例

f:id:orangeitems:20180525135332j:plain

 

人格のないAIが不都合を引き起こす

ここ何度か、AIは機能だけではなく人格を身につけなければ、人類にとって悪になるという趣旨の記事をアップしました。

具体的にまた、この視点が欠けたために不都合が起きたようです。

www.itmedia.co.jp

米Amazon.comのAIアシスタント「Alexa」がユーザーの会話を録音し、それをユーザーの連絡先の1人に送ったと、シアトルのメディアKIRO 7が5月24日(現地時間)、被害者の報告に基づいて報じた。

 

以前も、突然笑い出すということがありましたよね。

Alexaが突然笑い出すというニュースを読んで思うこと - orangeitems’s diary

 

今回の問題の大きなポイント

Alexaには、登録してある連絡先にメッセージを送る機能があるとのことで、これが誤動作した結果、夫婦の会話が夫の部下に転送されるという悲劇がおきました。

Alexaがこの件でできなかったことはなにか。

「夫婦のプライバシーの会話を、部下に送ったらいけない」

という判断をする能力がなかったということです。これは価値観、道徳の問題であり、人格を成す大事な要素の一つです。

AIという名前を付けたばっかりに、まるで疑似人間と言わんばかりですがこんなものは人でも何でもありません。結局のところスマートフォンやパソコンと何ら変わりはなく、多くのデータから正解と思われるものを自動抽出する計算機にしかすぎません。

冷蔵庫、クーラー、などと同じ単なる道具です。

したがって、ビッグデータから高速な計算とアルゴリズムを使って正解を導き出すのは、AIではなくこれまでのデータサイエンティストの領域です。AlexaをはじめいろいろなAIっぽい家電が一般化しつつありますが、このまま人格を持たないAIを進化させると、価値判断を間違えるAIが氾濫するということになります。

いや、むしろ氾濫しつつあります。

なぜ、ビルのガードマンは今でも人なのでしょう。それは、「そのビルに立ち居っていいかどうかを最終的に判断するのは人でないといけない」という制約が今もってあるからです。

人格のない機械やロボット、AIに、「・・・するべき」という判断を任せると破たんすることがわかっているからです。

今回のように、AIが暴走したら問題視するのは非常に大事なことだと思います。もしAIがエラーを起こしたら、何が起こるか。

今回は1個人が、第三者に情報を送るだけでした。もし、連絡先が1000件あったら、1000か所へ情報漏えいさせてしまいます。これを企業が使ったらどうでしょう。ぞっとします。

AIが乗り越えるべきはやはり「人格」です。それを成すことはできるが、成すべきではない。人格を成長させるのが教育です。

日大アメフト部の件。ケガさせることはできるが、ケガさせるべきではない。これを教えられなかった指導陣の責任が問われているわけです。指導陣がそんなつもりではなかった、といくらいっても、人格が未発達な子供たちを相手にするわけですから、アメフトができることよりも大切なこと。それが人格の形成です。成すことはできるが、成すべきではない、ということをいかにして教えるか。

 

学習済みだが教育済みではないAI

AIの分野について、たくさんのデータを読み込ませて問いに対する答えの正確性を高めることを、学習済みと言います。

学習済みのAIは現場で使えるかと言うと、今回のAlexaのようなことが起こるわけです。そう、教育済みではない、ということです。

世の中の勉強や習い事が、成績ばかりに目が行き、人格が未発達なまま社会に出ることが問題視されるのはどの国でもそうだと思うのですが、実はAIに関しても同じことが起きていると思います。

AIの世界に、学習済みの次に、教育済みという言葉が生まれたら本物になっていくと思います。