AIと精神療法 推敲の推敲 1
AI(人工知能)に精神療法は可能か? 実に挑発的で魅力的なテーマである。もちろんこの件に関してはさまざまな立場があろうことは想像できる。「ある意味では可能でもあり不可能でもある」という結論を導けば一番無難なのかもしれない。しかし私はこうして書き出す前の段階では「結論から言えば将来的には、ある限定的な意味では可能であろう」という方向の議論を展開するという予感がある。
もちろん精神療法をどのように定義するかは人それぞれであろう。クライエントとのある程度以上の知的な会話の成立が前提条件であるという立場の論者にとっては、近未来にAIが精神療法を行う可能性はない」と言わざるを得ないかもしれない。なぜならそれはAIが人間のような心を持つことが前提だからである。しかし精神療法といっても実にさまざまな種類があり得、そこには様々な要素が含まれるはずだ。何しろ「ひとりでできるワークブック形式」の○○療法という書籍も存在するとしたら、それはクライエント個人が使いこなすツールとしての側面を持っていることになろう。するとAIが「ワークブック」以上の機能を果たせる可能性がある以上は、精神療法を行うという役割を果たしているとも考えられる。すると「AIはすでに精神療法を行っている」という答えさえ存在しかねない。
いずれにせよ私が本稿で論じるのは、精神療法が持つ様々な側面の一部に特化したものをも含む、かなり緩い意味での精神療法を差すことをはじめにお断りしておきたい。
まずはこんなエピソードを披露したい。息子が小学生の頃、つまり20年前のことである。「たまごっち」、というのが流行していたころの話だ。「デジタル携帯ペット」というふれこみの平べったい卵型のおもちゃで、小さいデジタル画面に「たまごっち」なるフィギュアが登場し、餌をやる、遊ぶなどのボタンを押していくことで卵から成長していく。餌をきちんとやる(ある決まったボタンの操作を繰り返す)ことを怠ると、ひねくれたり不良化したりする。今から考えれば他愛のないゲームだが、スマホが登場する何年も前の話であるから、子供たちは夢中になった。やがてそれに似た類似品も売られるようになり、少しサイズが大きく、少し込み入った育ち方をするおもちゃが発売された。紫色の四角形の、「たまごっち」より少し大ぶりのおもちゃだったと記憶している。二番煎じなので、どこまで売れたかはわからない。息子はそれを買ってしばらく「餌を与えて」育てて遊んでいたが、どこかでなくしてしまい、それっきりになっていた。すると数ヶ月ほどして掃除をしていてたまたま本棚の隙間からその偽たまごっちが出てきた。かろうじて電池が残っていたので消えかけの画面を見ることができたが、そこにはこう読めた。
「もう僕のことをわすれちゃんだね。僕は旅に出ます。探さないでね。」
それを読んだ息子がしばらくして号泣し始めたのだが、心配して様子を伺いに来た家人もそれを読んで、「あれまあ…」と言っているうちに二人で号泣しだした。特に「探さないでね」の部分が琴線に触れたらしい。今から考えればそれが人工的にそこまで作り込まれたおもちゃだっただけの話なのだが、まるで自分たちが世話を忘れたせいで死んでしまったペットのような気持ちを私たちに起こさせたのである。(ここで、カーナビの声の女性の声に悪態をつき、かなり「情緒を伴った関係」を持っている家人の例を書こうと思ったが、紙数の関係で省略しよう。)
AIがどれだけ精神療法が出来るかはともかく、それに対して人間が情緒を伴った関係を結ぶことができるのか、という問いには、もうすでに答えが出ている。人間がどれだけAIに情緒を投影するのか(あるいはAIがどれだけこちらの投影を引き出すのか)ということにそれはかかってくるのだが、かなりプリミティブなレベルでそれは可能となっている。ただしもちろんそれがどれだけ精神療法と重なり合う部分があるのかについてはまた別の話であろう。が可能か、という問いになるとかなり複雑な問題となる。しかし私の答えの方向はこのような事例からの類推にかなり助けられているのだ。
AIはどこまで対話できるようになるのか?
冒頭で述べたように、AIはどこまで精神療法を行うことが出来るのかは、単純な答えの見つからない、かなり厄介な問題だが、一つどうしても問うておかなければならない問題があるのは確かだ。それがAIはどこまで人の言葉を理解し、対話することが出来るのか、という点である。これをクリアーするかしないかで、「精神療法家」としての質にかなり大きな差が出てきてしまうことは間違いない。
この問題を考えるうえで発想の起点となるのが、哲学者のジョン・サールの「中国語の部屋(Chinese Room)の話だ。以下はその概要である。中国語を全く知らない英国人を小部屋に入れて、ある作業をさせる。彼に与えられているのは一冊のマニュアルだけである。外との交流は、ある特殊な暗号の書かれたメモのやり取りのみに限られる。彼はそれを無言で小窓を通して外の人から渡される。彼の仕事はこの記号の羅列に関して、どのように同じ記号を使って返せばいいかを、マニュアルに従って知り、それをメモに書いて返すことだ。(幸いマニュアルは英語で読めるようになっている。) 例えば、「○、×、*、◇、」と書かれていたら、マニュアルでそれに対して「×、◎、@、▽」だとする。ちなみにこれらの記号は中国漢字で、最初の「○、×、*、◇、」は中国語の文章として意味が通じるとする。もしマニュアルが詳細に書かれていたなら、そしてその人が有り余る時間があってそれを読み解くことが出来たら、そこで返される文字列は、中国語としての意味を成すだろう。というよりそのようにマニュアルが出来ているのである。
この問題を考えるうえで発想の起点となるのが、哲学者のジョン・サールの「中国語の部屋(Chinese Room)の話だ。以下はその概要である。中国語を全く知らない英国人を小部屋に入れて、ある作業をさせる。彼に与えられているのは一冊のマニュアルだけである。外との交流は、ある特殊な暗号の書かれたメモのやり取りのみに限られる。彼はそれを無言で小窓を通して外の人から渡される。彼の仕事はこの記号の羅列に関して、どのように同じ記号を使って返せばいいかを、マニュアルに従って知り、それをメモに書いて返すことだ。(幸いマニュアルは英語で読めるようになっている。) 例えば、「○、×、*、◇、」と書かれていたら、マニュアルでそれに対して「×、◎、@、▽」だとする。ちなみにこれらの記号は中国漢字で、最初の「○、×、*、◇、」は中国語の文章として意味が通じるとする。もしマニュアルが詳細に書かれていたなら、そしてその人が有り余る時間があってそれを読み解くことが出来たら、そこで返される文字列は、中国語としての意味を成すだろう。というよりそのようにマニュアルが出来ているのである。
さてこれは一種の思考実験であるが、サールは「この人が中国語を理解していないであろう」と論じ、結局はコンピューターが人との会話を成立させるとしても、それは中国語を理解したとは言えない、と主張したのだ。そして他方では「いや、理解しているからこそ、会話が成立するような文章を返してきたのだ」と主張する学者もいて、結局この議論に決着はついていないそうである。ちなみになぜここでコンピューターが出てくるかと言えば、このマニュアルに従った応答というのは結局AIが行っていることを言い表したに過ぎないからである。
この議論の答えは私にはついているように思える。それはもし中国語の部屋が極めて高いレベルのマニュアルを備えているとしたら、この英国人のこもった部屋すなわちAIは、事実上中国語を理解していないと主張する根拠はなくなるであろうという事だ。もちろん「わかる」とはどういうことかが問題になる。AIは本当の意味で「分かっている」と言えないのかもしれない。しかし同じように人が「わかっている」とはどういうことかを突き詰めても、結局わかるということの定義があいまいになってしまい、同じことが起きるからだ。
我が家の犬のチビ(故人)に向かって「ご飯だよ」と言ったら、尻尾を振って近づいてくるだろう。チビは「ご飯」の意味を分かっている。これは確かなことだ。でも神経細胞が数百しかないCエレガンス(線虫)もごく微量の物質に惹かれて集まる。そのCエレガンスだって、匂いを嗅ぎつけて「餌だ!」と思っていないとも限らない。でもすべてがオートマチックに動いているのかもしれない。では思考実験の中で進化のレベルを上げて行ってみよう。どのレベルで心が想定されるのか。昆虫のレベルでは無理だろうか? イグアナならどうだろうか?・・・・ 結局どのレベルから心の存在を認めるのかについての決定的な線引きなどできない。そしてAIをさらに複雑化していったとしても、結局同じ問題に突き当たるのである。
そこで実際にAIがこれから進歩を遂げ、本当の意味で言葉がわかるようになる公算はあるのだろうか? 現在のAIのレベルで人とまともな会話をするのはかなり無理があることは確かである。そしてコンピューターの研究の歴史が前世紀の半ばに始まったことを考えるならば、もう数十年が経過しているのに会話の質としてはお話にならないような現在のレベルでは、AIが人との会話ができる程度へ進化するためには、サルが人間に進化するのを待つほどに途方もない時間がかかるだろうと考えてもおかしくない。しかしその事情は以前とはかなり違っていることも確かだ。というのも私たちのAIに対する見方は近年のディープラーニング(以下DL)の出現により全く違ったものになったと考えている。それまでのコンピューターの「教師あり学習」では、人間がコツコツと入力をして教え込んでいたのだ。ところがDLによりコンピューターが自分で高速で学習するようになった。たとえば囲碁を教え込むのに、ルールだけしか知らなかったコンピューターが、人が寝ている間に、最初は互いにザル碁を打っていても、何千万回となく対局をしてひとりでにうまくなってしまうのである。AIの研究の第一人者の松尾豊氏のほんの2,3年前の著書には「AIが人間の囲碁棋士に勝てるのは当分先だろう」と書いていたのに(松尾、2015)、今ではアルファー碁などが人間の棋力をはるかに抜き去ってしまっている。もし囲碁の対局、いわゆる「指導碁」を精神療法の一種であると考えたならば、もちろん本論文の題に掲げたといは間違いなく「アリである」ということになる。しかしここではあくまでもAIの対話の力について論じているのであったので話をもとに戻そう。
松尾豊(2015)人工知能は人間を超えるのか 角川EpuB選書