orangeitems’s diary

クラウドではたらくエンジニアの日々の感想です。

Google Duplexへの批判、AIがAIと見分けがつかなくなったときに起こること

f:id:orangeitems:20180511222001j:plain

 

AIは敵か味方か

コンピューターが劇的に進化し始めた時、人間の仕事が無くなると揶揄されたものですが、逆にコンピューター絡みの仕事が増えているこの世の中です。

さて、最近は人口知能の進化、もしくは進化させようという運動が盛んになってきたように思います。そのための基礎技術が進み、これを使った応用的なソフトウェアも一般化してきました。例えばAlexaやGoogle Echoのようなスマートスピーカー。Aiboのようなクラウドとつながるデジタルペット。Webサービスでもりんなのようなチャットポッドも有名です。Googleは自動広告にAIの技術を使っていますし、今の所人間に対して何か不都合を与えていることは何一つないと思います。

今週はGoogle I/Oという、Googleのイベントがあったのですが、そこで物議をかました発表があったのをご存知でしょうか。

www.itmedia.co.jp

 米GoogleがGoogle I/O 2018で披露した、AIアシスタント「Googleアシスタント」がユーザーに代わって電話し、先方の人間と会話して予約などを実行する機能が物議を醸している。

 この機能は、同社の新しいAIシステム「Google Duplex」によるもので、まだ開発段階だとして紹介された。基調講演では、美容院の予約とレストランの予約の2つのデモが披露されたが、いずれも人間と区別のつかない自然な会話になっており、会場からは驚きの声が上がった。

 これについて、ノースカロライナ大学准教授でIT企業に批判的なツイートで知られるゼイネプ・ツーフェクシ氏は、Googleアシスタントは人間のふりをして電話をしただけでなく、相手をだますために「ふーむ」とか「ああ」とまで言ったとして「シリコンバレーの倫理は失われ、制御不能だ」とツイートした。

ついに、来る時が来たのかもしれないという予感がしました。

 

AIがAIと見分けがつかなくなったときに起こること

私もWebにて、あるサービスのサポートをチャットで受けた時に、大きな違和感を得たことがあります。話しているうちに、もしかしたらこれは機械か?、と疑わしくなってきたのです。もし機械(AI)なのであれば、私が投げかけた言葉に乗せたエモーション(感情)ってばかばかしくなりませんか?。ロボットに向けて一生懸命しゃべっている私って、マヌケに思えませんか?。人だと思って一生懸命話したのは、信頼関係を築くためでもあるのです。実は機械でした、これを後から言われたら、かなりムッとするのだなあという気づきがありました。

最近は電話調査でも、機械応答のケースがあります。はいもしもし、と出て見ると、「こちらは・・・です。自動抽出により世論調査をしております・・」みたいなことをしゃべりだすんですけど、「もしもし返せ!」って思います。何しろ、機械相手に喋らされるのって、屈辱的な何かが生まれます。

まだ、相手が機械とわかっていて、「へい、しり!」「おっけーぐーぐる!」とかって、まるで上司や飼い主のように呼びかけることから始める関係だから、まだ気持ちが穏やかなんだと思います。勝手にiPhoneが、「ねえ、◯◯!、メール来てるんだけど見ないの?」なんてしゃべり出したら、イラっとしますよね。主導権とるんじゃないと。

さてさて、このGoogle Duplexです。勝手に電話かけてレストランや診察の予約をAIがしてくれるそうですが。これ取り次いだ人は、機械だと気がついたらイラっとするし、気がつかないなら気がつかないで、イラっとしますよ。

このように、「AIがAIと見分けがつかなくなったとき」に大問題が起こると私は予想しています。これはシンギュラリティのような次元が高い話とは違います。今、VRが進化していてどんどん仮想現実が人間の現実に近づいていますよね。でもゴーグルをかぶらされているし音もヘッドフォンだし、人間は騙せない状況です。でも声ならば、先にたどり着いてしまうのではないでしょうか。AIなのか人なのか電話で相手がわからない状況です。そして遅れてVRがそこまで進化していくのでしょう。

何が大問題なのか。これまで、少し感情的な表現で「ムッとする」「屈辱的」「イラっとする」と表現してきましたが、人間の尊厳を傷つけるのです。犬や猫に真顔で相談できますか?。人間だからこそ、人は話をするのです。人間じゃないことで尊厳が傷つけられるのは理屈じゃなく感情です。

この大問題に向かって、人間が突き進んでいます。もちろん、良い使い方を事前に取り決めていれば悪い道具にはなりません。でも、例えば電話でオレオレ詐欺をする人は電話を悪いことに使っています。仮想通貨を熟知して盗み出す人もいました。テクノロジーに良いも悪いもなく、使う人がそれを決めるのです。そして、使う人次第で大きく悪い方向にぶれるとしたら、これは大問題です。

Google I/Oで、Google Duplexを披露したことで、問題が顕在化してしまったということになります。それはすごい技術かもしれませんが、これを使って人間にとって悪い未来も想起できてしまったということです。

 

どこかでモラルを作らなければいけない

原子力の例がわかりやすいです。テロリストが手に入れたら大変なことになる。わかりますよね。平和利用すれば原子力発電に活用できます。それぐらいAI自体よりAIが作り出すいろいろな道具が、モラルハザードが起こった瞬間に悪意を持って暴れ出します。人にAIと悟らせないAIを使って、人は何を起こせるのでしょう。善のイノベーションと、悪のイノベーションが同時に起こります。この悪の方を制御しないととんでもないことが起こると思います。

例えばどんな悪いことができるのか・・。っていろんなアイデアを思いついている人はもういるのではないでしょうか。むしろ洗い出して先回りしないといけません。AIの進化と同じくらい、モラルを作っていくことは大切なことだと思います。