【勝間和代先生登壇】専門職の未来:AI時代に会計士・弁護士・税理士は生き残れるのか?

 東京大学では2012年から、統合的な視野と独創的な発想を備え、産学官の各方面でグローバルに活躍するリーダーを育成することを目的としたGCLプロジェクト(ソーシャルICTグローバル・クリエイティブリーダー育成プログラム)を開始した。プロジェクトの一環として行われている講義「グローバル・クリエイティブリーダー講義Ⅱ:Introduction to Management(担当:東京大学大学院情報理工学系研究科客員研究員・岩尾俊兵)」では、普段相互に交流する機会があまりない文系と理系の大学院生、さらには業界の最前線を走るトップランナーとが社会イノベーションに関して様々なテーマで議論し、日本と世界のイノベーションを担う人材を育成することを主目的としている。

 今回はゲストとして公認会計士、経営コンサルタント、証券アナリストなど多様なキャリアを経験された勝間和代氏をお迎えし、「専門職の未来:AI時代に会計士・弁護士・税理士は生き残れるのか?」というテーマで学生と議論した。

こちらはノーカットです。

※発言者敬称略

 

 

ゲスト:勝間和代 氏(株式会社 監査と分析 取締役 共同事業パートナー)

司会:岩尾俊兵(明治学院大学 経済学部 国際経営学科 専任講師)

書記:加藤木綿美(二松学舎大学 国際政治経済学部 国際経営学科 専任講師)


●テーマ①専門職人材とAIはどのように協調していくことができるか?

 

勝間:人工知能と人間の差とは何か考えてみると、何が一番違うと思うか?

 

学生:私は現状の弱いAI、すなわち、一つのタスクに絞ったAIと人間の違いは、柔軟さというか、タスクを自ら定義できるところかなと思う。

 

勝間:最近そこも徐々にでき始めている。タスクを自分で定義させるプログラムを入れるとタスクも定義できる。もう一つものすごく大きな違いがある。言われると「ああ!」となることだが。

 

学生:AIは判断するためのロジックを組むのに、結果ベースでデータベースで組むが、人間であれば上から下にロジックを組めるという部分が違うと思う。

 

勝間:それについても最近Googleがつくった囲碁プログラム「AlphaGo(アルファ碁)」が、はじめのうちは全部データをもとにやっていたのに、最近棋譜を覚えさせずにゼロから人間に勝ってしまった。AIが自分で全部考えて、過去の人間の棋譜を全く参考にせずに人間に勝つようになってしまった。

 

学生:そのプログラムを組むのはデータから組むということか?

 

勝間:もちろん基本的なプログラムはGoogleの人間が組んでいるが、そのあとはAI自身が対戦したり棋譜を生成したりして考えるようになってしまった。AlphaGoが(人間のプロ棋士に)勝っても、「人間の棋譜をもとにしたのではないか?」という議案が相次いだので、Googleの方で人間の棋譜を一切なしでも勝てることを証明するということをやって、実際に勝ってしまった。ロジックを自分で組めるという話では、AIもすでにそのように一部でき始めている。

 

岩尾:難しく考えている学生が多いように思うが、もっと単純なところで、AIは疲れないとか文句を言わないということもあると思う。

 

勝間:まさにそれに近い。

 

学生:だとすれば、感情がある/ないというところではないか?

 

勝間:その通りだ。感情、さらにいえば心がある/ないということだ。AIは自分がやっていることが何なのかはさっぱりわからない。何をやっているかという認識は全くないのに対して人間は基本的には感情が動いて、それからロジックが後からついたり、考えがついてくるという考え方である。そのため、心がないということは何がないかというと、彼らは五感がない。五感もどきはあるが。私たち人間はシナプスとホルモンで動いている。一方でAIは今のところは0と1の世界で動いている。物事を考えたり感じたりする仕組みが全く違う。そのため、先ほど出たような得意分野と苦手分野が思い切り分かれてくる。心の有無を考えると面白い。私が人工知能の勉強をしたり専門の学者と話していて面白いと思ったのは世界の見方が違うということだ。人間は五感のボトムアップから世界を見て組み立てているが、コンピュータは最初のプログラムやロジックから見て世界を組み立てているから、いかに人工知能に感情や嘘をつく能力や、困っちゃう能力をどうやって作らせるかが難しいという話を聞いた。

 

岩尾:監査では、人間だと感情があるので、「せっかくあの社長とは上手くやっているから悪いところを指摘し辛いな」みたいなこともあるかもしれない。

 

勝間:一番わかりやすいのは、相手の社長が何かを言っている時に、AIは相手の顔や感情の動きを判断し辛い。それは莫大にデータを入れていけば将来的にできると思うが、今のところはそこまでできていない。私の友人が人狼知能というのを作っている。人狼ゲームをやらせるAIプログラムをつくって、嘘をつくAIをつくって戦わせている。そういう意味で、「感情や感覚がないAI」と、「感情や感覚がベースで無理やり後付けでロジックを付けている人間」でどのように専門職において協業していくのかと考えると面白いと思う。

ちなみに弁護士や会計士や税理士の仕事についてはネットで調べたのか?

 

学生:ネットでひたすら調べた。

 

勝間:そういう時はネットではなく人に聞くのが一番だ。まさにそれがAIにはできないことである。東大生であれば、友達の友達や、友達の両親などを辿れば誰かしら必ず弁護士・会計士・税理士がいるはずだ。学校の課題なので30分、1時間時間をくださいと言って電話でもして聞けばいい。「今やっている業務はどのようなことで、今どのくらいコンピュータが入っていて、将来的にどのくらいコンピュータが来ると思いますか?」といういわゆる仮説を聞く。仮説を現場の人から聞いてしまうのが、一種のチートではあるが、簡単な方法だ。そういうチートはなかなかAIにはできない。

 

岩尾:ちなみにこの中で何かしらの専門職を目指している、あるいは今すでに専門職の学生はいるか?

 

勝間:専門職でAIがどこに入ってきてどこに入ってこないという自分の判断や予想について聞きたい。

 

学生:私は看護師を4年間経験してから進学してきた。私の経験からの話になるが、医療職は先生が述べたような感情や人の温かさ、人間味みたいなものが最終的な判断に大きく響くところがある。例えば「この手術を受けたら99%の確率で死ぬが1%の確率で完治する」ということを数字で出されたところで患者は選べない。また、本人が選べないという状況も今は多い。危篤状態で家族が選ばないといけないということも多い。そういった中で数字だけで判断することは難しい。そういうところに人間として関わるというところと、人間として関わった時に専門知識というものからサポートするというところが、今までもそうではあったが、より専門職に求められるところだと考えている。そのため、医療職がAIに淘汰されるかというとそうではなく、むしろ今まで煩雑だったデスクワークや診断など、人間がやらなくて良いところを全部AIに投げて、患者や患者の家族のアクションを後押ししたりブレーキをかける、説得するというのはデータでだけではなく、「あなたの生活状況を見たらこれは得策ではない」「今この状況で踏みとどまって良いのか、一緒に考えてみましょう」ということが求められるのだと思う。

 

勝間:相手の行動変革や心を動かすという部分。実際にプラシーボ効果は有名だ。医師が偽薬を出すと治ってしまう。あれも医師だからこそ患者は信じる。

 

学生:私は外務省で10年間働いていて、その後NY州弁護士を経験しており、法務というよりはロビー活動をやっていたが、弁護士の視点から言うといかに顧客を満足させるかというところが一番重要な仕事だと思っていたので、そういう意味ではいかにうまく説明するか、客観的な事実だけではなく表情や実際に伝えた時に横にいるとか、そういった感情のところでまだ人間の弁護士としてやらなければいけないこと、AIにできないことは残っていると考えている。一方で弁護士の中でも判例をいかにうまく集めて説得的な議論をするかという判例を集めるところを専門的にやっている方も特にNY州弁護士の場合はいるので、そういった面ではAIがどんどん入ってくるようになれば淘汰されてしまう可能性はあると思う。

 

勝間:やはり現状、人とのコミュニケーションの部分はどうしても人間が必要ということだ。

 

岩尾:国の視点から見ると、責任という観点についてはどうか。AIには責任をとらせることができない。人間だったら最悪の場合「私が責任をとります」と辞任して職を失いさ迷っていると「かわいそうだから許してあげよう」となる。すなわち人間は人間に共感するために責任を取るという行為が意味を持つ。一方でAIにはそこまで共感しないのでAIを破壊してもなお怒りが収まらないということがあるかもしれない。そのため責任をとらせるという観点ではAIだと難しいのではないか。

 

勝間:ただ、最近初音ミクに人は共感するようになってきている。AIに対する共感に関しては将来的にはできると思う。不気味の谷についてもそうだが、中途半端に似ている人間は気持ちが悪い。非常によく似ているアバタークラスになると逆に区別がつかないので共感してしまう。ペッパーくんはやや不気味の谷のようだ。

 

学生:国際条約についてのある研究によると、国際条約におけるコピペが非常に多いという研究結果がある。今でもすでにそういうことが起きているので、これからはそういった条約についても、人間ではなく完全にAIに任せてもいいのではないかという考え方がある。そのため、そういった単純なデスクワークはAIに任せてもいいのではないかと思う。国際関係に限らず国内の契約を作るという部分での法律業務についても色々な業務があるが、そういうところではAIが活躍できるのではないかと思う。

 

勝間:ある程度テンプレート化できたり、パターン化できるものについては人間がやらなくても良いのではないか、それが相当高度なものでもという意見だ。

 

岩尾:よく日本の法律は霞ヶ関文学と呼ばれているが、あれはたしかにAIでできそうだ。本当の文学は難しいだろうが。

 

学生:条約の文脈ではたしかに租税条約やテンプレートがほとんどのものもあって、交渉の余地もないものもあるものの、先ほども出たように最後は責任を誰がとるのかという問題も一つあり、「AIがお互い交渉して妥結したのでこれでよい」ということを国内でどう説明するか。最後は国家と国家の条約にするときに誰が責任をとるかという意味では、たしかにテンプレートでできるところはあるし、今いる外交官全員が働く必要はないと思うがゼロにはならないと思う。

 

勝間:私は会計士だったが、監査法人の代表者というのがあり、「この会社の監査をしたところ、会社の財務諸表は適正です」と最後にサインをする。そのため、サインする人は絶対に必要だ。しかし、そのうちAIが優れてきたら国が認可すればいいのかもしれない。「公認AI」みたいなものができて、「公認AIがサインすればOK」となるかもしれない。

 

岩尾:その場合は、サインする人が一極集中していくというか、金融庁長官とかに一元化されていく。

 

勝間:その通りだ。金融庁長官が認可して公認AIがOKみたいになっていくと可能性はある。ちなみに、未だに会計士の人間必要な理由を一つ言うと、特に上場企業に関して会計士の主な役割は何かというと、交渉だ。利益をいくらくらい出すかという部分は比較的裁量が大きいので、会社は「これくらい利益を出したい」というが「さすがにそれはちょっと利益の出しすぎです・出さなすぎです」というように、押し引きするところがある。だからこそ人間の交渉が必要になる。会社の上部との交渉だ。それが行き過ぎると粉飾事件になるわけだが。

 

岩尾:フレーム問題が解決できるAIが出てきたとなると微妙だが、監査よりも例えば税務だと、税務の相談だと思ったら経営相談だったみたいな、実はあるフレームのもとで相談していると思っていたら、相手は全く別のフレームでの答えを欲しがっていたみたいなことはないか?税務の話をずっとしているが、それって売上が上がれば全部解決ですよねといったような。そういうことだと人間の方が得意だということはないか?

 

勝間:今は税理士もよほど優秀な税理士でないとそれは得意ではないと思う。

 

勝間:今回の議論に関して、人数予測があると面白いなと思った。今現在何万人かずつ会計士・税理士・弁護士がいて、その人たちが将来何人必要になるのか。増えるのか減るのか、残るのは絶対に残ると思うがその人数が増えるのか減るのか、給料が上がるのか下がるのか。実際の弁護士・会計士・税理士はここ20年程、稀少性が薄れて給料が下がっている職種だと思う。私の頃は全て電卓で叩いていたので、すごく優雅な監査をしていたが、どんどんコンピュータ化して早くなっていく。同じ監査をするのにも今は人数がそこまでいらなくなった。

 

学生:法律文書や会計文書の電子化によって業務時間が減るという話もよく聞くが、電子化をすれば減る部分と、AIが入って減る部分は分けて考えた方が良いと思うが、実際にAIが入ることによって変わる部分はどういった部分なのか?

 

勝間:例えば私が会計士をやっていた頃は、20~30年先輩の会計士がとにかく財務諸表をただ眺める。眺めただけで何の分析もせずに「ここがおかしい」と指摘し出す。それはベテランの人にとっては長年のビッグデータが脳にあって、何か違和感があるというところを診断するわけだ。そういった診断がAIは統計分析すれば簡単にできると思う。類似業種や過去のデータと乖離が何%あるとかで出させると。

 

学生:これだけ「AIが脅威」のように言われているが、実際に電子化されることによるインパクトとAIが入ってくることによるインパクトはどちらが大きいと思うか?

 

勝間:皮膚感覚的には、少なくとも会計士や弁護士は今専門職で準公務員だ。会計士や弁護士や税理士の先端業務がある限りは人数はそこまで変わらないと思う。ただし、給料は上がらないと思う。最低限のニーズが法務業務として常にあるからだ。国が決めた枠の中で仕方なく使わざるを得ない。一番打撃になるのは国がAI弁護士やAI会計士を様々な規制緩和で認めた時だ。AI弁護士を弁護士として法廷に立てて良いとか。AI税理士の税務書類を出して良いとなったら皆すごく喜ぶと思う。

 

岩尾:それで年間利用料が千円とかだったら小規模事業主の人は皆使うだろう。

 

勝間:顧問料の相場が月に2-3万だから。それこそスタディーサプリは今千円だ。

 

岩尾:今でも自分で自分を弁護する自己弁護の場合は弁護士が必要ないということになっているが、そこにAIが入って、「あくまでAIは自己弁護を助けているだけで、あくまで自己弁護だ」という言い訳が認められるようになれば弁護士も危ないかもしれない。

 

勝間:税理士も義務ではないし、自分でサインして出せば良いが、税務調査が入った時に言い訳をしてくれる人がいなくなるということだ。会計士は今のところ義務だ。帳簿上の大会社と上場企業は監査に対して必ず会計士の資格を持っている者がサインしなければならない。

 

岩尾:勝間先生は外資系コンサルでの経験もあられるが、コンサルティングの世界ではどうか?

 

勝間:戦略コンサルは意外と減っていない。何をやっているのか聞くと、彼らなりにデータベースをがっちりつかんで、そのデータベースを使って仕事をとっている。会社より賢くなるという戦略をとっている。半導体なら半導体の製造工程をどうやって改善するかということをつかんで、世界中の半導体会社の製造工程の改善を担うといった形だ。

 

学生:逆にコンサルタントがAIを使うことはないのか?

 

勝間:簡単なビジネスダイナミクスなどはやる。色々な法制度を変えたり、コミッションを変えたり、補助金を変えたりしたときに、何がどのように動いて相互関係でどうなって業界地図がどう変わるかという。そこはAIというよりは将来予測の仕事がコンサルは多いので、そうなると手作業の分析の世界だ。それはさすがにAIはできないと思う。先ほども反復という話が出たが、AIは定型作業を何十万回もやるのがすごく得意だが、コンサルのような非定型作業をいきなりやらせるには、今のAIの仕組みだと負荷が高すぎる。

 

学生:機械学習とかでいう、そういう予測は定型性が違うという意味で違うということか?

 

勝間:私は予測の中で一番優秀なのはYouTubeのレコメンデーションだと思っている。あのようなことは人間がやるよりはるかに優秀だ。今や日本人の80%がYouTubeを使っていて、テレビより行動比率が高い。その莫大な情報があるからこそ適格なレコメンデーションができるが、今のAIの仕組みでは莫大なデータがないときついだろう。量子型コンピュータが出てきたら変わるのかもしれない。

 

学生:データをつくるという段階を今まではやっていなかったと思うが、今後はやっていくのか?

 

勝間:AlphaGoはなぜ簡単かというと、囲碁のルールが非常に明確だからだ。囲碁のルールもマス数も明確に決まっている。しかし、現実問題はそんなに明確にルールやマス数は決まっていないので、そこで莫大なデータを作るのは難しいようだ。

 

学生:私はRPAの自動化の会社に行く予定だが、コンサルの会社にも面接に行ったことがあり、多くの会社が(AIを)使いたいし、すでに使っている。簡単な事務の仕事はパソコンに任せるところは多い印象があって、まずはコンサルから始めて、そこから色々な会社に広げるのではないかと思う。

 

岩尾:そういえばマッキンゼーかどこかが最近デザインの会社を買収したということも話題になっていた。

 

勝間:最近MBAよりデザイン会社に行けとか、MBAより芸術を学べと言われている。まさにそれは最初に話したようにAIは感性の部分が雑で、それについて人間の方が優れているので磨きましょうということだ。現状のAIがダメな部分として、AIは耳と目はあるが他の感覚がなくて、人間の代替をさせるためには特に皮膚感覚がないのが致命的だといわれている。

 

岩尾:ロボットの研究では、赤ちゃんロボットをつくっている研究室がある。赤ちゃんも皮膚感覚があることでロボットが人間に近づくといった研究だ。そう考えると皮膚感覚がロボットやAIにどう影響するか?

 

学生:皮膚の話はどちらかというとロボットを日常の中で活用する時に重要になってくる話で、これまではAIとは切り離して考えていた。

 

勝間:人間は皮膚から非常に多くの情報を取っている。AIは情報の取り方が違うので得意不得意があるらしい。私たち人間は相手が何か不正をしているときに皮膚から感じる。「この人は何か変なことを隠している」とか。皮膚の感覚と、あとは相手の顔を真似た時に相手がどういう感情を持っているかのようなことを感知するらしい。よく変な人に会うと皮膚がざわついて気持ち悪い感じがある。話は流ちょうで良い人のように見るがどうも詐欺師な気がすると思ったらやはり詐欺師だったというようなことがある。現状のAIは目と耳だけはすごく優秀だが、人間とのバランスというので難しいということは言われている。

 

 

●テーマ②AIが普及していく中で専門職人材に求められることとは何か

 

勝間:私は最近ヤクルトの工場見学に行ったが、非常に大きな工場なのに、働いている人間は2人しかいない。牛乳を発酵させてヤクルトになり、瓶詰めしてパッケージされるまで全て自動化されているので見ていてちっとも面白くない。人間は何のために存在するかというと、エラーが何分か出た時に専門の人に知らせて修正するための見張り番だ。もしかしたら弁護士業務もヤクルトの工場のようになってしまい、サインをするところや依頼人に話をするところ以外は置き換わってしまう可能性も十分にあると思う。

 

学生:弁護士に相談する件数のある一定割合はおそらく相談しなくてもいい案件だったり、法律相談に限らず色々な相談ごとのうち何割かは相談しなくても解決するようなことだと思う。それは直接弁護士に行かなくても良くなるという選択肢がAIによってできて、本当に弁護士にやってもらわないといけない部分が残っていくのではないかと思う。

 

勝間:FAQみたいなものがあってそこに文章を入れると文脈を解釈してくれて、ある程度これはこうですと最初にスクリーニングされる。

 

学生:今みたいにQ&Aを読まなくてもそういうことができるようになるはずだ。

 

勝間:「どうしてもだめな時はコールセンターに」みたいになってくる。プレスクリーニングにAIが使われるという話だ。

 

岩尾:私の専門は工場の研究だが、トヨタの工場も車体部の溶接をするところは99%ロボットで、人はたまにピンポンと音がするとその場所に走っていく。ただ、全体を通して見れるところは多くを人間による作業にしているところもあって、それが田原工場のレクサスのラインだ。レクサスを購入した人をゲストとしてお呼びして工場を見せて、「ほら見てくださいこんなに人間が働いているんですよ」と、綺麗で油の匂いもしない。「何番のあれが私のレクサスですね」と盛り上がる。最後はレクサスのキーホルダーを渡して「車が届いたらこのキーホルダーを使ってくださいね」と言って帰す。これがブランドになるというのは一つある。

 

勝間:だからレクサスはカスタマイズできる。車体の色やシートの色など細かく指定できるのは手作業でやっているからだ。しかし、私としては手作業でやるほど怖いものはないと思っていて、木製の手作りのパソコンがほしいかというといらない。しかし手作りになるとなぜか急に手作り愛好者が増える。

 

学生:弁護士業務の中で2つ残るのかなと思う点がある。一つ目は、法律問題でバグというか、本来予定されているルールに少しそれた問題が特に問題化されて、例えば殺人事案であれば本来は情状酌量で刑を科されないとされるべき案件をしっかりと弁護して、法律にのっとると有罪になってしまうのを無罪にする、そのための弁護をするというのが弁護士業務の一つだと思うので、そういった通常のロジックではバグとされてしまうようなものや、ロジックに基づかないようものを今後AIが見つけて弁護していけるのかというのは、代替できるのかということだ。二つ目は、そもそも法律自体も会計のルールもそうだが、グレーゾーンがあり、明確にマル・バツと決められないときに、企業にとって・依頼者にとって有利なことを見つけ出してやるという創造的なこともAIができるのかというと今はできないと思うので、今後できていくということになれば本当に危ないなと思うが。

 

勝間:いわゆるさじ加減だ。ただAIにもできるのではないかという気がしないでもない。このレンジのさじ加減を使いなさいと、さじ加減のレンジを入れるとできるのではないか。ただ例外処理に対してはその通りで、もう少しフラグが立つような形があるといいなと思う。トヨタもヤクルトも何かあった時の例外処理を人間がやっているわけで。

 

岩尾:殺人でいうと、尊属殺人事件についても、感情がなければAIの処理では判例をずっとそのまま当たっていけば死刑になるわけだが。

 

勝間:いわゆる介護疲れ系が最近は多い。

 

岩尾:そこを人間が弁護すると感情で「これはおかしいだろう。国の制度がおかしいんだ」となって、最高裁まで争い、最後最高裁が憲法違反でひっくり返してということになる。学生のために説明しておくと、尊属殺人というのは、従来の法律では親を殺したら死刑ということになっていたが、ひどい父親がいて最後不可抗力で殺してしまったという場合に死刑だとおかしいだろうということでがんばった弁護士がいて、その結果事実上無罪、懲役3年執行猶予4年くらいになったという事件があった。そういうことは感情がある弁護士でないとそこまでがんばらなかっただろう。

 

学生:介護疲れの問題は日本独自の問題だ。超高齢社会の中で介護に疲れた、施設がなくて殺してしまうという形は今後増えるだろうと思う。そういうことをオートマティカリーにやることはできないので、そこは弁護士というか人間に対しての仕事として求められるものになると思う。医療従事者の視点で話を聞いていると、お年寄りは病院に行くのは診察に行くのではなく喋りに行くんだとか、弁護士に本当は相談しなくてもいい業務があるという側面があるとすれば、それは安心するという付加価値があるのかなと思う。必ずしも世間一般の顧客がここにいる人たちみたいに「AIが何なのか」とか「自分たちが勉強していることがどれだけ使えるのか」といったロジカルシンキングができるかというとそういう人たちは少なくて、そういう人たちに「これからはAIを使ってください。質問があったらパソコンでやればAIが出力してくれるからそれに従ってください」と言われても従えるのかという問題があると思う。医療の話に戻ると、標準治療は割に成功率が高いと言われているのに、それでも代替療法やよくわからない謎の食品の方が良いと言って治療を断る人たちという問題はAIが解決することはできないだろう。顧客のインテリジェンスの問題かバックグラウンドの問題かわからないが、そういった部分により介入していかないといけなくて、むしろ今までは制度的にもマンパワー的にも外れ値になっている人にアプローチができなかったが、より効率化されて仕事の幅やゆとりが増えることによってそこら辺の人たちにアクセスすることがやっとできるようになっていくんだろうなと思う。

 

勝間:監査でも比較的メジャーな勘定科目はAIに任せてマニアックな勘定科目についてより人間が深堀りするみたいにすると会社の不正がもっと消えていくと思う。

 

岩尾:今だと仮想通貨を何の勘定にするのかというのは難しい。あれは会社ごとに違うのか?

 

勝間:一応金融資産扱いだと思う。個人は金融所得ではなく雑所得になる。みんな無茶苦茶に不正している。日本で換金するとバレて税金に持っていかれるのでだいたいシンガポールで換金している。もしそれをやるとしたら税務当局だ。そういった脱税が行われていることに対してどのように考えるか。

 

学生:弁護士よりは裁判官の方がAIが使えるところがあるのではないかと思った。判断する時は気持ちを入れずに事実に基づいて判断した方が良いとたまに言われるので、AIの方がやりやすいのではないか。

 

勝間:それはおそらく国民の合意が必要だろう。白黒つかない問題が裁判になるわけで、人間の判断だから仕方ないという。最近、名古屋で性的虐待を受けていた娘と父親の話で父親が無罪になって非難轟々だった。あれなんかはAIだったらどのように判断するのかは興味がある。

 

岩尾:非難する先がAIになってしまった時に、AIを認めた法務大臣を追及するのか、裁判官がおかしいといって最高裁まで行ったら(最高裁判事の)投票もあるので全員バツをつけるとか、そういったことでどうすれば納得できるのかという問題はある。

 

勝間:AIになればなるほど責任の所在問題は本当に難しい。

 

岩尾:感情と責任というのが今日のテーマのように思う。

 

勝間:その通りだ。感情の持っていきどころと誰が責任をとるのかという2大問題がAIにはまだ解決できていない。

 

学生:チャットボットのようなQ&Aに答えていきAIで処理をするというところについて、今AIが使われているサービスやプロダクトは人間のニーズを必ずしも満たしているわけではないと思っていて、「AIってこういうことができるけど、こういうのどう?」という提案レベルで止まっているものが多いと思う。例えばQ&Aは何か問題が起きた時に何かを解消したいという人はどんなニーズを持っていてどういう感情でいるのかという部分の考慮がなされないままに「お前これが聞きたいんだろ。これが回答だよ」という上から目線のサービスになってしまっている。彼らが達成したいのは早く問題を解決する。かつ、怒りのやりどころが見つかるというのがゴール。それを満たすようなAIを活用したサービスが登場すればAIに対する捉え方も変わるのではないかと思う。

 

勝間:感情の持っていき方といえば、最近恥ずかしいことがあって、一昨日クレジットカードの明細が来ていたので見ると、iTunesからわけのわからない請求が2万円ばかりきていた。絶対に私はIDとパスワードを盗まれたと思ってAppleに電話をしたところ、犯人は娘だった。そのときも担当者がやんわりと「娘さんである可能性が非常に高いですよ」と言ってくれた。娘に言っても「知らない」と言うのでもう一度Appleに電話すると、「娘さんのApple IDと使用している端末を教えてください。(申し訳なさそうに)一致しています」と言われた。そういうこともFAQにかかるときっと腹が立つだろう。「あなたの不正請求はおそらく家族ですから先に家族に確認してください」と表示されても。

 

学生:私もこの前Appleに電話したが、かなり待たされる。電話した場所が正しくないとぐるぐる回って結局1時間半かかった。それが「早く問題を解決したい」という感情を満たしてくれないので、電話するという手段を選んだものの、もっと早く解決してくれる手段があればそれを選びたいと思う。それは私が感じる感情を人間であればなだめるとかそういったことができるわけだが、そういうことをAIがやってくれたらいいなと思う。

 

勝間:Google Homeに何か質問をしてわからないと「すいません。わかりません。もっと勉強します」とすいませんをちゃんと言うようになっている。

 

学生:私はクレジットカード会社で働いていて、その娘さんの例はフレンドリーフロードという専門用語がある。私の会社も最近アメリカのスタートアップを買収して、そのスタートアップは何をするかというと、フレンドリーフロードの解決だ。フレンドリーフロードが今の世の中ではすごく発生していて、オペレータに電話をしてつなぐのが人件費も時間も非常にかかるので、そのスタートアップがAIを使って、「カードを持っている人がこのペイメントをやっていない」ということを、アプリ上でロボットと会話して商品明細や色々なものを提示してリマインドすることができる。それによって「これを使ったのはどんなデバイスで何を買ったのか、それを全部提示することでフレンドリーフロードを解消することができる。

 

勝間:それは欲しい。まさに端末の型番とApple IDを示してくれれば私はぐうの音も出なかった。そういったフレンドリーフロードを今まで人間が莫大な処理をしていたのを機械(AI)にやらせると人間はもっと高度なことに集中できるようになる。私の直感では不正請求の9割くらいはフレンドリーフロードで本物のフロードはおそらく1割もない。だからAppleもその手の話に慣れている。

 

学生:今Appleがやっていることを機械(AI)に切り替えることだ。チャットボットのように。

 

勝間:クレジットカードの番号を言うと何月何日の請求は誰が使ったというのを調べてくれる。

 

学生:AIと比べて人間の強みは感情を持っていることだが、それは同時に人間の弱みでもある。人は相手に対して好かれるような対応をしていけば好かれていく。逆に相手がマイナスの感情を出していくと、疲れていく。鬱っぽい人とずっと一緒にいると自分も鬱になってしまう可能性があると聞いたことがある。なのでAIが感情を理解できるようになればAIに任せたい気持ちもある。AIだとインプットとアウトプットを明確にすることができて、必要のないことはインプットしないようにすることができる。人間はインプットしたくないと思っても入ってしまう側面がある。

 

岩尾:仕事の話であってもノイズ的に相手の悪い感情があると人間には移ってしまって、言われた仕事だけをすればいいが落ち込んでしまって仕事ができないということがあるということだ。AIはノイズをキャンセルできる。

 

学生:AIはアウトプットを出すためのインプットだと捉えることができるが、インプットによって影響されない。

 

勝間:近年カスタマーハラスメントも問題になっている。対面業務の7割くらいがカスタマーからの様々な嫌がらせや無茶難題をぶつけられて結構な人が退職になっている。その辺りもカスハラ対策のAIがいると良いかもしれない。

 

岩尾:カスタマーも言っている内容はまともだとしても「だからてめえよー!」と強く言われると落ち込んでしまう。私は元々自衛隊にいたが、私のいた当時の自衛隊は自衛隊を辞めると再就職がトラック運転手くらいしかないといわれていて、ホワイトカラーになりたい人たちが何をするかという話題でなかば常識になっていたのがカスタマーセンターで数年やればどこでも生きていけるということだった。鉄の意志で怒鳴られても「はい!仰る通りです!」とやれますと言うとどこでも仕事がある。カスタマーセンターの責任者は本当にみんなやりたくないので、それをやりますというとすぐに採用してもらえるということだった。

 

勝間:そういう意味で専門家も高度な専門家はいくらでも生き残っていける良い時代になると思う。粗末なことはAIにやらせて例外処理で単価を高くすればいい。AIが安くなったとしても。ハリウッドはその時代になっている。音楽も安いものはiTunesでいくらでも流れている一方で、コンサートや出演機会など高いものはひたすら高騰している。いわゆる所得の二極化が起こっているのと全く同じで専門家も二極化していくのではないかと思う。

 

学生:弁護士の業務の9割は和解で紛争を終わらせる。裁判に持っていくと感情が大きくなってしまうのでなるべくそうならないようにする。しかし、依頼者がどうしても裁判をしたいという時は、依頼者からすると裁判官に話を聞いてほしいというところが感情的なところではある。AIで「AB」を打ち込んだら「C」が出てくるというのがわかっていて裁判にあえて行く人はいないので、ただ国がやっている公正な制度で自分の意見を聞いてもらったという満足感を得られることが重要だという人もいるので、やはり感情の問題、責任の問題になってくると思う。

 

岩尾:最後に勝間先生にまとめのコメントをいただきたい。

 

勝間:専門職、特に技能専門職の今後はあまり明るくないと思う。創造型の専門職や人とのコミュニケーションが主になる専門職は給料がこの先も高くなる可能性が高い。一方で、知識型の専門職、まさに今回出てきた3業種(弁護士・税理士・会計士)はそうだが、それらはポジティブかネガティブかといえばAIはネガティブにはたらくと思う。医師はわからない。医師はあまりにも人的コミュニケーションの部分が高いし、国の政策で医学部が全く増えないので、当然医者も増えない。しかしこの先病人は少子高齢化で飛躍的に増えていく。そのため、色々な専門職の中で医師だけの給料も人気も上がってきていて、弁護士・税理士・会計士の人気が下がっているというのはそういう理由ではないかと思う。

 

岩尾:医師はAIを使えるようになるとますます儲かる可能性がある。

 

勝間:また、最近自費診療も増えている。標準治療も良いが、標準治療ではできない医療について、本当に良い医療だったら100%自費で払うというお金持ちの高齢者が結構いる。自費でも10倍はしないわけだから、命に代えられないということで予防治療に関して月に1~2万は払うから、そういったものも専門職は本当に変わってきていると思う。

 

岩尾:そういえばマーケティングのコトラー教授だったと思うが「基本的に多くの財・サービスは、満足-コストで満足度が決まるが、世の中で唯一コストが高ければ高いほど満足度が上がるのは脳外科の手術だ。なぜなら、脳外科の手術はクオリティが低いと死んでしまう。クオリティが一定以上だと基本的には治ったといえる。あるいは治ったかどうか自分では認知できないので生きているということで、これだけ払ったからこそ自分は生きられているんだと思い込むから満足度が上がる」というようなことをきいたことがある。

 

勝間:アメリカで脳外科医は最も給料が高い職種の一つで、おそらく年収50万ドル程度になる。ただし、失敗したときのリスクも高く、訴訟で負けたときに保険でとられるので結構な給料が保険でなくなってしまう。