orangeitems’s diary

クラウドではたらくエンジニアの日々の感想です。

インコ「Alexa、明かりを消して」が教える、人格を持たないAIの問題

f:id:orangeitems:20180523182358j:plain

 

インコ「Alexa、明かりを消して」

興味深い記事があったのでコメントします。

 

www.itmedia.co.jp

インコが「Alexa、明かりを消して」(Alexa. All lights off)と言うと、Amazon Echoが反応し、照明が消える――こんな動画がYouTubeで公開され、話題になっている。

 

動画まで引用します。

www.youtube.com

 

かわいいとか言っている場合ではない

インコでもなんでも「明かりを消してほしい」という音声を判別して、行動を起こすことは今のAIと言われる技術ができるのはわかります。

一番ここで大事なのは、インコが命令をしたら無視をしなければいけない、という事実です。インコの作る音声に返答するのはおかしいのです。事実に対する判断、ということではこれもプログラミングで解決しそうですが、よくよく考えるとこれでもダメです。もし人間の声を合成した人工の音声だったらどうでしょう。これも拒否しなければいけません。

何が良くて、何がダメなのか。これを価値観といい、価値観を備えた人間性全体を人格といいます。人格を持たないAI、の大きな問題はすべてをプログラム通りに処理することです。

我々の仕事に人格はいらないのでしょうか。これは違います。日大のアメリカンフットボールにおいて故意の反則が社会的に糾弾されていますよね。どんなにルールが整備されそれを裁く審判まで組み込まれていてもです。人格を忘れては破綻するのです。どう行動するべきか。これはプログラムの問題ではなく人格の問題ということを強く言っておきたいのです。

 

AIは人格を搭載できるか

AIは人格を搭載できるか。できるできないで言えば可能性の問題ですから、決してできないとは言えません。ただし、今は人格を実装していません。人格のような反応をするまでは来ているのですが、これを人格というにはまだまだ幼稚です。米澤穂信作「氷菓」において福部里志が「僕はデータベースだからね。結論は出せないんだ。」とセリフを言うのですが、この状況に非常に似ています。今のAIはデータベースの進化であり、それが出す結論を人間は参考にこそすれ結論にはできていません

それを証拠に、あらゆるAIと呼ばれるものの実装方法は、インプットしたことに対して出した答えを最終的に人間がチェックし、採用するというモデルを取っています。人格ではないものが出した答えを信用できないからです。

ソフトバンクの事例を出しておきますね。

www.itmedia.co.jp

ちなみに、ワトソンが「不合格」にしたESは、必ずスタッフが再度目を通しますので、受験者のESがワトソンだけで落とされることはありません。

 

もともと、AIに期待することというのは人格のシミュレートです。計算することは昔からコンピューターがやっていました。昨今のクラウドの流れで計算能力が非常に向上し、ビッグデーターという言葉も生まれました。そこからのAIです。たくさんのデータから結論を瞬時に出すところをみると、あたかも人格をシミュレートしたように見えますが、単に計算が早くなったということと大差がありません。

まずは、できるかもしれないが、今はできていないということを理解する必要があります。

今日のニュースも引用しましょう。

www.itmedia.co.jp

 アメリカ自由人権協会(ACLU)は5月22日(現地時間)、米Amazon.comがリアルタイムで人の顔を認識するAWSの技術「Rekognition」を米国の法執行機関に販売しており、これは人権侵害に当たると主張した。同団体はAmazonのジェフ・ベゾスCEOに宛てた抗議の書簡も公開した。(中略)Rekognitionは、2016年11月、「AWS re:Invent 2016」で発表された「Amazon AI」を構成する機能の1つ。ディープラーニング採用のフルマネージド型画像認識サービス。米Pinterestなどが利用している。

この記事も象徴していますね。人格の無いAIに、人生を左右するような判断を任せてるんじゃねえという心の叫びです。

 

次はこうなる

とある企業で、とある部署に新人が配属されたとします。

まずやるべきことは何でしょうか。教師なし機械学習でしょうか。おっとそれはディープラーニングの話ですが、そんなことはしませんよね。

大体の企業が、現場に配属されたら、実際の仕事を見せたり簡単な仕事に分解してやらせてみたりするでしょう。そしてなぜその仕事をやらなければいけないのかという目的の部分に発展し、理解してもらう。なじんできたら、未来の新しい仕事に現場全体で考えていく。もちろんその過程で飲みに行ったりして信頼を醸成する。こんなところだと思います。

この過程の中で例えば上司であるあなたは新人の彼に、重要な仕事を任せるかどうかはどう判断しますか。新人が人間として信用できるかどうか、というのを大事にしませんか。そうです、それが人格です。仕事を任せるかどうかは人格が大きく影響しているのです。能力はあるかもしれない。でも責任をまだ負えないという判断が往々にしてありますよね。

したがって、実はこれからAIに対して実装することというのは、人格です。各社AIサービスを作りこんできています。それぞれの各社のAIをどうやってサービスとしてユーザーが使うようになるかどうか。それは各社のAIが人格を実装し、このAIは信用できる、と社会が判断できるかどうかです。認知能力はあるけれども信用できないヤツ、という段階のAIなどオモチャではあれビジネスツールにはなりはしません。それはこれまでの分析ツールの延長です。

www.itmedia.co.jp

日本マイクロソフトは5月22日、AI女子高生「りんな」に最新の会話エンジン「共感モデル」(α版)を同日から順次採用すると発表した。ユーザーとの会話内容をふまえ、どんな返答をすると自然に会話を続けられるか判断し、質問を返したり新しい話題を切り出したりするという。「会話の判断をランダムではなく、りんなのAIエンジン側で判断できるようになった」(同社広報)

 

人格とは何か。もしかするとこれは哲学かもしれません。哲学を実装する時代になったのです。一見何の接点もない、情報工学と哲学がコラボレーションしないとここは乗り越えられないと思います。

また、心理学者はこれまで実際哲学と医学と統計学の間で立ち回ってきたと思いますが、今まさに情報工学の力を借りて実装のためにワークしなければいけないときになったといえます。

もし、人格への取り組みを途中で放棄するようなら、単なる分析ツールのことだったということになり途端にAIブームは終焉するでしょう。そうならないために、より横軸に、多様性(ダイバーシティー)を持ってこの問題に対処するべきです。

 

もしかしたら、人類は、悪魔を作っているのかもしれませんよ?