orangeitems’s diary

クラウドで働くインフラエンジニアの日々の感想です(ほぼ毎日更新)。

かんぽ生命はAIをすでに使っていたのに不祥事を防げなかった理由

f:id:orangeitems:20190803121510j:plain

 

かんぽ生命はすでにAIを導入していた

かんぽ生命問題全3千万件調査は機械学習を使うべきだという記事がTwitter中心に拡散していて、いろいろな反応を見るにネガティブな反応が多くて、まあ予想通りと言ったところです。思うところはありますがツイッターにでもつぶやきます。

さて、今回お伝えしたいのはそこではなくて、かんぽ生命はすでにAI(機械学習)を使っていた、というお話です。

 

tech.nikkeibp.co.jp

かんぽ生命保険は2017年3月21日から、保険金の支払い審査に日本IBMの人工知能(AI)「Watson」の適用を始めた。約款や医学、法律などの専門知識を持つベテランの査定者でなければ判断できなかった難度の高い査定を、経験の少ない査定者でもWatsonのアドバイスに従って処理できる。1年半に渡り機械学習のパラメータ調整を続けることで、90%以上の精度を実現した。

 

AIを使っていたといっても、今回のような不祥事に対応するコンプライアンスチェックではなく、保険支払い時の査定に利用するものです。

かんぽ生命がすでにAIを導入していた、これに意外感を持たれる人はたくさんいらっしゃると思います。

 

もっと詳しく

かんぽ生命のAIに対する取り組みについては、日本銀行のホームページにスライドがありますのでこちらをご覧ください(PDFファイル)。

 

かんぽ生命におけるAIへの取り組み~保険金支払審査業務への活用を中心に~(PDFファイル)

 

以下はキーとなるスライドの抜粋です。 

 

f:id:orangeitems:20190803114629p:plain

引用:http://www.boj.or.jp/announcements/release_2018/data/rel180810d3.pdf

 

このように、あくまでも人間の業務を補助する目的でAIが導入されていたということになります。それは、今後の展開のスライド(16ページ)を見ても明らかです。

 

f:id:orangeitems:20190803115021p:plain

引用:http://www.boj.or.jp/announcements/release_2018/data/rel180810d3.pdf

 

・支払い領域の支援
・バーチャルアシスタント
・その他事務領域での活用
・商品開発での活用

というふうに、あくまでも、人間の業務の延長上でバーチャルパートナーとして位置づけがAIということになっています。

 

また、従来のITシステムでは、あくまで人間が考えたロジックを代替するだけ。AIはビッグデータを導入後継続学習していくことにより制度が高まっていきます。それを説明したスライドが14ページ目にあります。

 

f:id:orangeitems:20190803114923j:plain

引用:http://www.boj.or.jp/announcements/release_2018/data/rel180810d3.pdf

 

2015年からこのように、AIを先進的に導入していたかんぽ生命はなぜ今回の不祥事を防げなかったかに興味が移ります。

 

考察

かんぽ生命が考えるAIの使い方は、あくまでも人間を補助することに主眼を置いています。人間とAIが効率よく協業しビジネスを完遂しようという思想です。AIは人間を尊重し、もっと効率を上げくれるためのツール、という考え方です。人間とAIがケンカをしないようにAIは性善説(人間の本質とは善である)という姿勢を守って実装されてきたのが、これまでのかんぽ生命のAI導入だったと思います。

一方で、営業マンが不正な契約をするのではないか、という目線で導入する場合のAIは性悪説(人間の本質とは悪である)に立たないと構築できません。AIがあぶりだすのは人間の不正です。人間の不正を機械学習させるのです。そして人間の行為に物言いをつけアラートを発するAI。この構築を行っていれば今回の件はもっと前にわかっていたのではないかと思います。しかし、実績を作った保険支払い業務の後の計画を見てもそんな着眼点はありません。

これは技術的な問題ではなく、性悪説に立ったAIに対する、人間のアレルギー反応ではないかと考えています。経営者は社員を性悪説で捉えているのか。悪いことをするかもしれないからAIで防止すると考えてシステム導入をする。あくまで倫理的な話であり技術的な話ではないのです。

性悪説AIについて思い出されるのが、本屋の万引き検知AIです。

 

tech.nikkeibp.co.jp

東京都渋谷区内にある3書店は2019年7月30日から、万引き犯の顔画像データなどを互いに共有し、顔認証カメラで入店を検知して再度の被害を防ぐ「渋谷書店万引対策共同プロジェクト」を始める。

 

この事例で、「自分の顔がAIに検知され記憶され、万引き防止のために利用されるのは気持ちが悪い」「万引きと疑われているようで心外だ」などという意見が相次いだのを覚えています。これも性悪説に立ったAIの事例です。顔認証については不特定多数で利用しようとすると、その目的が不正防止となった場合に同様の議論が起きるのを知っています。

このように、「かんぽ生命はAIをすでに使っていたのに不祥事を防げなかった理由」は、性悪説に立ってAIを使えなかったことに尽きると思います。しかし、今回これだけたくさんの不祥事が発覚したのですから、私は、性悪説に立ってAIを構築し導入するべきだと思います。また繰り返し言いますが、既存のITシステムがこのコンプライアンスチェックをやるには限界がある。いろんな商品やサービスが開発され、時間が経つとともに抜け穴がどんどんできるようになってしまう。常に新しい事例を学習させ精度を向上させられる機械学習の導入が、不祥事検知に向いているということを重ねて主張したいと思います。