2019年5月22日水曜日

AIと精神療法 推敲 1


AI(人工知能)に精神療法は可能か? 実に挑発的で魅力的なテーマである。もちろんさまざまな立場があろうことは想像できる。「可能でもあり不可能でもある」という結論を導けば一番無難なのかもしれない。しかし私は「結論から言えば将来的には可能であろう」という方向の議論を展開することになる。
もちろん精神療法をどのように定義するかは人それぞれであろう。クライエントとのある程度以上の知的な会話の成立が前提条件であるという立場の論者にとっては、近未来にAIが精神療法を行う可能性はない」と言わざるを得ないかもしれない。なぜならそれはAIが人間のような心を持つことが前提だからである。しかし精神療法といっても実にさまざまな種類があり得、そこには様々な要素が含まれるはずだ。何しろ「ひとりでできるワークブック形式」の○○療法という書籍も存在するとしたら、それはクライエント個人が使いこなすツールとしての側面を持っていることになろう。するとAIが「ワークブック」以上の機能を果たせる可能性がある以上は、精神療法を行うという役割を果たしているとも考えられる。すると「AIはすでに精神療法を行っている」という答えさえ存在しかねない。
いずれにせよ私が本稿で論じるのは、精神療法が持つ様々な側面の一部に特化したものをも含む、かなり緩い意味での精神療法をさすことをはじめにお断りしておきたい。
 まずはこんなエピソードについてお話しする。息子が小学生の頃、つまり20年前のことである。「たまごっち」、というのが流行していたころの話だ。「デジタル携帯ペット」というふれこみの平べったい卵型のおもちゃで、小さいデジタル画面に「たまごっち」なるフィギュアが登場し、餌をやる、遊ぶなどのボタンを押していくことで卵から成長していく。餌をきちんとやる(ある決まったボタンの操作を繰り返す)ことを怠ると、ひねくれたり不良化したりする。今から考えれば他愛のないゲームだが、スマホが登場する何年も前の話であるから、子供たちは夢中になった。やがてそれに似た類似品も売られるようになり、少しサイズが大きく、少し込み入った育ち方をするおもちゃが発売された。紫色の四角形の、「たまごっち」より大型のおもちゃだったと記憶している。二番煎じなので、どこまで売れたかはわからない。息子はそれを買ってしばらく「餌を与えて」育てて遊んでいたが、どこかでなくしてそれっきりになっていた。数ヶ月ほどして掃除をしていてたまたま本棚の隙間からその偽たまごっちが出てきた。かろうじて電池が残っていたので消えかけの画面を見ることができたが、そこには「もう僕のことをわすれちゃんだね。僕は旅に出ます。探さないでね。」というメッセージが残されていた。それを見つけた息子が号泣し始めたのだが、心配して様子を伺いに来た家人までそのメッセージを読んで、特に「探さないでね」の部分に反応してしばらく一緒に号泣していた。今から考えればかなり単純なおもちゃの電子ゲームであるにもかかわらず、息子や妻までまるで自分たちが世話を忘れたせいで死んでしまったペットのような気持ちを起こさせたのである。AIに対して人間が情緒を伴った関係を結ぶことができるのか、という問いには、もちろんそうである、と言うしかない。こちらがどれだけAIに情緒を投影するのか(あるいはAIがどれだけこちらの投影を引き出すのか)ということにそれはかかっているのである。ただしそれが精神療法が可能か、という問いになるとかなり複雑な問題となる。しかし私の答えの方向はここに既に示したものと思っていただきたい。

AIはどこまで対話できるようになるのか?

 冒頭で述べたように、AIはどこまで精神療法を行うことが出来るのかは、単純な答えの見つからない、かなり厄介な問題だが、一つどうしても問うておかなければならない問題があるのは確かだ。それがAIはどこまで人の言葉を理解し、対話することが出来るのか、という点である。これをクリアーするかしないかで、「精神療法家」としての質にかなり大きな差が出てきてしまうことは間違いない。
 この問題を考えるうえで発想の起点となるのが、哲学者ジョン・サールの「中国語の部屋(Chinese Room)の話だ。以下はその概要である。中国語を全く知らない英国人を小部屋に入れて、ある作業をさせる。彼に与えられているのは一冊のマニュアルだけである。外との交流は、ある特殊な暗号の書かれたメモだけである。彼はそれを無言で渡され、仕事はこの記号の羅列に関して、どのように同じ記号を使って返せばいいかを、マニュアルに従って知り、それをメモに書いて返すことだ。(幸いマニュアルは英語で読めるようになっている。) 例えば、「○、×、*、◇、」と書かれていたら、マニュアルでそれに対して「×、◎、@、▽」だとする。ちなみにこれらの記号は中国漢字で、最初の「○、×、*、◇、」は中国語の文章として意味が通じるとする。もし精巧にマニュアルが出来ていたら、そしてその人が有り余る時間があってそれを読み解くことが出来たら、そこで返される文字列は、中国語としての意味を成すだろう。というよりそのようにマニュアルが出来ているのである。
さてこれは一種の思考実験であるが、サールは「この人が中国語を理解していないであろう」と論じ、結局はコンピューターが人との会話を成立させるとしても、それは中国語を理解したとは言えない、と主張したのだ。そして他方では「いや、理解しているからこそ、会話が成立するような文章を返してきたのだ」と主張し、結局この議論に決着はついていないそうである。ちなみになぜここでコンピューターが出てくるかと言えば、このマニュアルに従った応答というのは結局AIが行っていることを言い表したに過ぎないからである。
この議論の答えは私にはついているように思える。それはもし中国語の部屋が極めて高いレベルのマニュアルを備えているとしたら、この部屋(と言っても英国人が入って仕事をしなくてはならないが)は事実上中国語を理解しているとしか言いようがないということである。もちろん「わかる」とはどういうことかが問題になる。AIは本当の意味で「分かっている」と言えないのかもしれない。しかし同じように人が「わかっている」とはどういうことかを突き詰めても、結局わかるということの定義があいまいになってしまい、同じことが起きる。
我が家の犬のチビ(故人)に向かって「ご飯だよ」と言ったら、尻尾を振って近づいてくるだろう。チビは「ご飯」の意味を分かっている。これは確かなことだ。でも神経細胞が数百しかないCエレガンス(線虫)もごく微量の物質に惹かれて集まる。そのCエレガンスだって、匂いを嗅ぎつけて「餌だ!」と思っていないとも限らない。でもすべてがオートマチックに動いているのかもしれない。では思考実験の中で進化のレベルを上げていけばいいのか? どのレベルで心が想定されるのか。昆虫のレベルでは無理だろうか? イグアナならどうだろうか?・・・・ 結局どのレベルから心の存在を認めるのかについての決定的な線引きなどできない。そしてAIをさらに複雑化していったとしても、結局同じ問題に突き当たるのである。
そこで実際にAIがそこまで進歩する公算はあるのだろうか? 現在のAIのレベルで人とまともな会話をするのはかなり無理があることは確かである。そしてコンピューターの研究の歴史が前世紀の半ばに始まったことを考えるならば、もう数十年が経過しているのに会話の質としてはお話にならないような現在のレベルでは、AIが人との会話ができる程度へ進化するためには、サルが人間に進化するのを待つほどに途方もない時間がかかるだろうと考えてもおかしくない。しかしその事情は以前とはかなり違っていることも確かだ。というのも私たちのAIに対する見方は近年のディープラーニング(以下DL)の出現により全く違ったものになったと考えている。それまでのコンピューターの「教師あり学習」では、人間がコツコツと入力をして教え込んでいたのだ。ところがDLによりコンピューターが自分で高速で学習するようになった。たとえば囲碁を教え込むのに、ルールだけしか知らなかったコンピューターが、人が寝ている間に、最初は互いにザル碁を打っていても、何千万回となく対局をしてひとりでにうまくなってしまうのである。AIの研究の第一人者の松尾豊氏のほんの2,3年前の著書には「AIが人間の囲碁棋士に勝てるのは当分先だろう」と書いていたのに(松尾、2015)、今ではアルファー碁などが人間の棋力をはるかに抜き去ってしまっている。もし囲碁の対局、いわゆる「指導碁」を精神療法の一種であると考えたならば、もちろん本論文の題に掲げたといは間違いなく「アリである」ということになる。しかしここではあくまでもAIの対話の力について論じているのであったので話をもとに戻そう。
松尾豊(2015)人工知能は人間を超えるのか 角川EpuB選書
 ちなみにAIの近年の驚異的な進歩がDLの発見によるものであることを示したが、これを可能にしたのが、いわゆる「誤差逆伝播 back propagation」という手法を用いることであるという(松尾、2015)。すなわち自らの出力に見られる誤りをフィードバックして自己修正していくプロセスであるが、これによりAIははかなり自動的にかつ高速に自己学習をしていくことが出来るようになったという。たとえてみるならば、進化の過程を自然界ではなく、コンピューターの中で仮想的に起こすと、そこでものすごいスピードで進化が起きてしまうだろう。それと同じだ。この誤差逆伝播を用いると、コンピューターが自分を相手にして、お互いがお互いを「人間のふり」をして騙し合いをすることで、どんどん両者の技術が上がり、人間もどきらしくなっていく。するとおそらく実際の人を騙すことはどんどんできるようになっていくだろう。よくトレーニングを積んだAIが「人と話した感じ」を与えることが出来るようになる可能性は非常に高いし、もうそんなAIが出来ているかもしれないとさえ思いたくなる。ところが現実はそれほど甘くはなさそうだ。現在のレベルは惨憺たるものといわなくてはならない。狩野芳伸氏の論文(狩野芳伸 (2017) コンピューターに話が出来るか? 情報管理vol.59 no.10 pp.658-665)に掲載されている例を挙げてみる。(1、省略)一読しただけで、ありえないほどの低いレベルなのだ。これでは2,3言話しただけでクライエントは退出してしまうだろう。これが果たして使えるレベルにまで成長するのか? アルファー碁のこともあるので決して侮れないとは思うが、やはり当分は無理、という結論にならざるを得ないのだろうか? AIが人間を超えるまで技術が進むのがシンギュラリティ、技術的特異点と訳され、それが一説では2045年であるという。これが遅いか速いかが全く分からない。それまでにはあり得ないのかもしれない、それよりも早く実現してしまうのかもしれない。繰り返すが、何しろアルファー碁のような例があるからだ。