2026年4月20日月曜日

甘えの相互性 2

 ところで土居の甘えの発想はどこに由来するのであろうか。土居は「甘えの構造」の冒頭で、甘えという問題を意識するようになったのは、米国でのカルチャーショックであったと述べている。その流れで先ほど紹介した渡米時の異文化体験を語っているのだ。もちろんこれを額面通りに受け取ることもできる。
 しかしこれには別のとらえ方もあるようだと少なくとも私は考える。それがこの甘えのもととなった考えは、土居の人生のかなり早期に芽生えていたのではないかということだ。この件との関連で小林隆児と遠藤利彦との編著「甘えとアタッチメント」の中で小倉清が書いている内容が興味深い。 

「[土居先生の話では]生後3か月の頃、自分の母親がおっぱいを与えるのをいやがったということをはっきり覚えていたという。そしてどうしてなんだろうと考える癖がついたという。このことを80歳の頃、初めて語ることとして車中の小倉に伝えたという。」


小倉清・小林隆児 (2012) 対談「甘え」理論と臨床を語る. (小林隆児、遠藤利彦編 (2012) 甘えとアタッチメント─理論と臨床実践. 遠見書房. に所収)

小倉清 (2012) 「甘え」理論と土居健郎の生涯.(小林隆児、遠藤利彦編 (2012) 甘えとアタッチメント─理論と臨床実践. 遠見書房. に所収)

 

 土居がこの記憶について晩年まで語らなかったということも含めて非常に興味深いエピソードである。そこで同書の別の個所で、もう少し正確に小倉の記述を追ってみる。

「土居は母親についてのごく早期の記憶を持っていて、それをまるで秘め事のように私に語ったことがある。その頃、私は赤ちゃんと母親の早期のやり取りについて興味を持っていて、そんなことを土居に話したりしていたのであった。その記憶とは土居が生まれてまだ三か月くらいのことではなかったかというのだが、授乳をめぐっての記憶であって、どういうわけか母は自分にオッパイを与えるのをいやがっていたというのである。そこで自分はなぜ母がそんなにいやがるのだろうかと訝ったという。それ以降、自分はどんなことについてもなぜ?どうして?と考えるくせがついたという。」(p93)

 もちろんこの問題が甘えと直接つながっているかは分からない。また生後3か月の記憶をずっと持っていたという土居の話にどこまで説得力があると考えるかは人それぞれであろう。おそらく甘えについての考えは、土居の人生の様々な場面でヒントを与えられ、徐々に形を成していったのであろう。しかしそれでも私は土居が晩年になってから小倉に個人的に語ったとされる上述のエピソードはとても意義深く感じる。私自身も甘えについて考える上で、それが土居が幼少時から自らの養育上の体験に根差したものとして理解することでようやく腑に落ちる思いがするのである。

 そしてオッパイが自分の母親から少なくとも積極的、ないしは自発的に与えられなかったことへの問いが、彼の甘えの理論の本質にあるという思いを強くする。それは少なくとも彼がカルチャーショックを受けた体験と本質的につながっているからである。


あらためて甘えとその本質にある「受け身性」


 以上の考えをもとに、甘えとはそもそも何かについて、私なりに定義してみたい。土居自身の甘えについての定義は上に紹介したが、私自身は次のように言い表すことが出来ると考える。

「甘えとは、相手に対して持っている願望が、その相手から積極的に満たされるのを想定することである」。

 甘えをなるべく平易でわかり易く解説することに努めた土居なら、私のこのような言いかえに賛同してくれると思う。なぜならすでに述べた土居自身の定義である「相手の愛をあてにして、それによりかかること」を、これは平易に、しかしもう少し丁寧に言い換えたものに過ぎないからだ。

  ここで「想定する」という表現がミソである。土居の定義の「あてにする」、あるいは「よりかかる」という表現にあるように、それは相手からの願望充足を半ば前提にし、当たり前のこととする態度のことを言っているのだ。それではなぜ相手からの積極的な態度がそれほど重要なのか。
 このことも私自身の日常的な経験を振り返ればおのずと理解されるだろう。相手から進んで何かをしてもらった時に、私たちは一番うれしいと感じるからである。こちらから何かをねだって、その結果、いわば条件付きで何かを施されるのと異なり、掛け値なしの愛情と感じるからである。それはそこに「無条件の愛情や親切さ」を感じさせるからだ。
 だれでもこちらから要求して誕生日プレゼントをもらうよりは、そのことを覚えてくれていてもらう方がうれしいのは当然だこのことを私は、「甘えと無条件の愛」という論文でかつて論じたことがある(岡野,1999, Okano,2024)。

 さてこの相手から積極的に願望が満たされることにより感じられる無条件の愛情ということについては、もちろん日本文化に特有の問題とは言えないであろう。実はアメリカ人も彼らが好むサプライズパーティという形でそれをお互いに表現しているのだ。だから言う前から相手に何かをしてもらうことの喜びは文化を超えたものなのである。

 ただし土居は初めて米国に渡航し、そこでカルチャーショックの形で体験したのは、そのような考えがあたかもアメリカ人の一般人や精神科医たちには欠如しているかのようであるということだった。なぜ欧米では「甘え」の基本に流れるこのメンタリティが日常においてみられないのかはとても大きな問題であるが、ここではそこには触れずに先に進もう。問題は土居がこの文化差の問題をどのように扱ったかであるが、それがマイケル・バリントとの交流で、彼の理論の影響であった。

 さてこのような甘えの概念の本質をある種の受身性としてとらえることが出来るのは論を待たないであろう。「相手の愛をあてにして、それによりかかること」はまさにその受け身的な態度と言える。ただしそこにはある種の積極性ないしは能動性も含まれることになる。なぜなら「あてにして,よりかかること」そのものは本人が選び取った行為と言えるからである。ちょうど「待つ」という受け身的な行為は同時に積極的に選択されたという意味では能動的でもある。その意味で私は以前から、甘えは能動的な受け身性 active passivity と表現できると述べてきた経緯がある。

2026年4月19日日曜日

甘えの相互性 1

 「甘え」の関係の双方向性について ―精神分析的視点から  


 本章のテーマは甘え理論を現代的な視座から捉えなおすというものである。言うまでもなく甘え理論は、土居健郎先生が1950年代から考え、また提唱された概念であり、日本人一般にも、そして世界的にもよく知られた概念である。
 私は土居先生の弟子という立場ではなかったが、個人的にもいろいろお世話いただいた関係である。私は2004年に米国留学から帰国して、聖路加国際病院の精神科にパートで勤め始めたが、そのオフィスはなんと土居先生が普段から使っているオフィスであった。そこを先生の診療のない月曜日に使わせていただいたのである。
 土居先生は電子化の波を快く思われず、最初はデスク上にパソコンのモニターを置くことさえ抵抗されたという。デスクの引き出しを開けると先生の書きかけ中の手書きの原稿や処方箋が出てくるといった具合であった。
 私が土居先生とオフィスを「シェア」させていただいた光栄な日々は5年続き、2009年に先生は聖路加に入院されてそこで最期を迎えられたが、最後にお見舞いに伺った時の痩せてちっぽけになられたお姿を今でも思い出す。
 思い出話に流れそうになるが、ともかくもその土居先生の理論はもう提唱されてから半世紀以上が経つが、非常に先駆的であり、脳科学の時代に生きる私たちにとっても多くの示唆に富んだ理論と言える。パソコン嫌いだった先生はいまのAIの隆盛を天国で苦々しく見ていらっしゃると思うが、その理論は時代を超えて輝き続けているのである。

 この辺で敬称を略するが、土居の理論を学ぶために最初に手に取るべきなのは、1971年の初版の「甘えの構造」である。その中で土居は甘えについて、以下のように言い表しているが、これは彼自身の甘えの定義と見ていいであろう。

「甘えの心理は人間存在に本来つきものの分離の事実を否定し、分離の痛みを止揚しようとすることである」

 これはかなり抽象的な定義と言えるが、土居はまた本来は誰もが甘えの意味を体験的に知っているとした。そしてそれを後に「相手の愛をあてにして、それによりかかる」(竹友への反論の論文)と言い直している。
 土居の「甘えの構造」を改めて読み返して改めて思うのは、それが私たちの日常体験に近く、平易な言葉で書かれているということだ。土居は決して専門用語を使わないという主義であったというが(小林、遠藤、2012)そのことも彼の文章のわかり易さに繋がっていると思う。

 

甘えの概念の由来


 土居の「甘えの構造」が彼自身の異文化体験に根差していることは、「甘えの構造」を読めば明らかであるが、そこで出てくる例もとてもわかり易い。特に最初の土居自身の異文化体験から説き起こされていることが大きな意味を持つと思う。というのも西欧社会で暮らすことで体験する様々な違和感は、まさに甘えの概念を成人の立場から理解する上で、恰好の素材と考えられるからだ。
 土居は初めての渡米直後のエピソードについて語っている。米国人の知人宅に招かれ「あなたはお腹がすいているか、アイスクリームがあるのだが」と問われ、初対面の人にいきなり「お腹がすいています」とも言えず、「すいていない」と断ったところ、それ以上すすめられなかった。日本人なら違うのに、と彼は思ったという。(「甘えの構造」1971 ,p.1)

 そしてさらに米国人の精神科の指導医に親切にされた時、思わずサンキューの代わりに I’m sorry と言ったら、向こうから怪訝そうな顔をされたという(同 p.2)、さらにパーティに呼ばれた時などに、「どうぞお好きにお召し上がりください」という意味での”Please help yourself” という英語の表現を聞いても、慣れないうちは「突き放された感じ」がして違和感を覚えたという。(同 p.4)

 これらの例が示すのは、相手の気持ちを読み合う文化に育った私たちが、そうでない文化に接してカルチャーショックを味わうという事情である。空腹かどうかを問われたというエピソードも、「本当はお腹がすいているが、気恥ずかしくて言えない」というこちらの気持ちを、アイムソーリーという言葉も、相手が親切な行動を示してくれた際に、相手に負担をかけてしまったことについて、申し訳なく思ったという気持ちを、相手にわかってもらっていないという感覚を生んだのであろう。
 ただしどうもそればかりではない可能性がある。空腹か尋ねられた例でも、その米国人に「相手(土居)が空腹かどうかを想像しないのですか?」と尋ねてみると、おそらく「それはそうかもしれませんが‥‥。そうならそうと言ってもらわないと分かりません。」という返事が返ってくるのは目に見えている気がする。そこには「相手が本当に空腹かどうかを考えるのは私の役割ではありません」という態度が透けて見える。そしてそこには自分のニーズ(必要としているもの)は自分が積極的に表明するという暗黙の了解があるかのようだ。それが”Please help yourself” のような表現に端的に表れていると言っていいだろう。

 この問題は「相手の気持ちを敢えて読まない」と「相手の気持ちに鈍感である」の二つを含むようである。しかし両者はまったく別のことではない。何かニーズがあれば言ってくるであろうと考えることで、自然と相手の様子をうかがうことも減るであろう。そしてそれは結果的に相手の潜在的なニーズへの鈍感さと繋がるであろうからだ。そして土居はこれを米国人の鈍感さとしてとらえていたようである。
 土居はこの米国での体験について、「甘えの構造」の中でかなり率直に語っている。

「アメリカの精神科医は概して、患者がどうにもならずもがいている状態に対して恐ろしく鈍感であると思うようになった。言い換えれば彼らは患者の隠れた甘えを容易に感知しないのである」( 同、p.16)

「[米国では]精神や感情の専門医を標榜する精神科医も、精神分析的教育を受けたものでさえも、患者の最も深いところにある受け身的愛情希求である甘えを容易には関知しないという事は、私にとってちょっとした驚きであった。文化的条件付けがいかに強固なものであるかという事を私はあらためて思い知らされたのである。」(同、p.16)

 土居はクリスチャンの家庭で育ち、早くから欧米の数々の思想にも触れていたという。しかし同時にかなり日本びいきで、「反米」的な人でもあった。彼のアメリカ人に対する批判には歯に衣着せないものも含まれる。

2026年4月18日土曜日

AIと精神分析 5

 ここで少し整理しよう。AIは【心】(人の心と錯覚させることのできる)を有する。(【心】の定義)= チューリングテストに合格する「知性 intelligence」を有するということはすでに述べたが、これは「機能的な理解」が可能な存在であるということだ。  さてここで私は一歩踏み込んで次のような提案をしてみたい。AIの【心】は物事を機能的に理解できるだけでなく、さらにはクオリア(知覚、聴覚など)に関しても、さらには感情についても(機能的には)持っていると言えるのではないか?  これはかなりチャレンジングな問いである。なぜならAIはそれを持っていないと言い、また一般にAIの研究者もAIは感覚などの主観的な体験は持てないとしているからである。  ここで機能的、という言葉の意味を思い出そう。それはチューリングテストに合格する。つまり「例えば猫のクオリアを体験することができるなら、それをテキストでのやり取りで言い表してください」と言い、テクストのやり取りをして、その結果としてAIは人間を欺くことができるであろうということだ。なぜならAIは猫のクオリアを体験しているとした場合に私が列挙するような特徴を延々と列挙することが出来るからだ。そしてそのこともAIが最も得意としていることの一つである。AIは私がしたことと同じような回答をアウトプットするだろう。「ふわふわで」「小動物で」「ペットとして飼われていて」「すごくかわいくて」「でもそっけない態度で」‥言い方を変えれば、これが出来るから、実は彼はAIであり、猫のイメージを実際には思い浮かべることが出来ていないにもかかわらず、そうできているフリをすることができる.  私がこの点を胸を張って主張できるのは、AIが用いている大規模言語モデル(つまり言葉の理解や応答を可能にしているシステム)では、文章をトークンに分けますが、それぞれのトークンは多次元ベクトルとして表されているからだ。  ここでニューラルネットワークの模式図を示すが(省略)縦に並ぶのがノードと言われる部分。ノードの間を結ぶ線がパラメータと呼ばれるものだ。 ちなみにこの絵はこれでもニューラルネットワークをごく簡略化して描いたものであり、現在ではノードは数百億、パラメータは1.8兆 120層ということだ。  実際にニューラルネットワークに文章を入力するとしよう。猫が出てくる文章として「吾輩は猫である」を入力したとするとそれをトークンに分解してノードに振り分けるということをする。そして各ノードに振り分けられたトークンは、多次元ベクトルだからだ。


 これは猫の多次元ベクトルの例である。それは猫の持つ様々な性質を言葉で言い表したものだ。それが数百、数千と作り出されて、一つのノードを構成する。そしてそれを一つ一つ数え上げてもらうと、ちょうど私が猫のクオリアを体験していることを証明しようとして行ったことと同じことをすることになるのだ。このことはAIなりに「機能的に」猫を感じることが出来ていると言えるのではないか、と思うのである。もちろんAIは実際にはクオリアを体験していない。しかしここまでできるとAIがクオリアを体験していない、ということを証明することも難しくなってしまう。つまりはクオリアについてもチューリングテストに合格するということである。

2026年4月17日金曜日

AIと精神分析 4

  ここではっきりしておかなくてはならないのは、今のままでは心と【心】は決定的に違うものであるということである。なぜなら【心】は意識、すなわち主観を持たず、クオリアや感情を持たないからだ。ここでいうクオリアとは聞きなれない言葉かもしれないが、いわゆる「質感」のことである。例えば「猫」のクオリアを考えてみよう。私たちは猫を目のまえに視覚的に思い浮かべることができる。それは猫を頭の中で一瞬で体験する事と言っていいだろう。それは褐色か白か,黒などの色をし、あのフワフワ、モフモフの、ゴロニャーンと鳴く、ペットとして飼われる小動物として言い表されるとしても、体験としては一瞬で、言葉を越えている。そもそもクオリアには言葉で表現することが不可能な体験も含まれるのだ。これは例えばメロディーなどを考えればより明らかであろう。例えばあなたが名曲「白鳥」(サンサーンス)のチェロ演奏をありありと思い浮かべるとする。それを何万語で言葉にしようと、その体験そのものを他者に伝えることは出来ない。唯一の方法は、「白鳥」を知っている人に、「チェロのあの曲の感じ」と伝える事であろうが、その場合でさえその人があなたと全く同じような体験をしているとは限らないのである。  そして本来、AIはクオリアを体験できないと言う事になっている。ちなみにここで「事になっている」、という持って回った言い方をするのは、後ほどAIがクオリアまがいの体験をしているのではないかという話になるからであるが、少なくともAIは人間が体験するようなクオリアに関しては、それを体験していないと伝えてくることから、それを額面通りに受け取っておくことで、ここではいったんこの問題は置いておこう。  しかしAIが物事を「理解」出来るのか、ということについてはクオリアの問題よりも曖昧であり、なぜならばAIは自分は物事を「理解していない」とは明言しないからである。そこで物事を理解するとはどういうことかを改めて考えてみよう。 そもそも物事を理解するとはどういうことか。 人がある事柄Xを「理解」していることを私たちはどのように確かめているのか?ということについて考える際に一番わかりやすい例が口頭試問である。  例として、ある学生が「精神分析における転移について」という卒論を書いたとしよう。もし試験官が「要するに転移とはどういうことなんですか? ひとことに要約して下さい。」と問い、それに対して学生がモジモジして答えられなかったとしよう。試験官は「やはり分かってないんですね。」と判断し、学生は不合格になるだろう。しかし学生がそれに答え、それを別の表現に言い換えることが出来、比喩的に表現し、またその論文をたちどころに要約して見せることが出来たとしたら、その学生はその内容を理解していると言えるだろう。しかしこれらのことをChatGPTなどの対話型AIは最も得意としているのである。これは次のように言い駆らわすことが出来よう。  ある文章の内容を自在にまとめ要約することができ、また言い換えることが出来る場合、その人はその論文を「事実上」理解しているとは言えないだろうか?すなわちテキストのみのやり取りでは(人間でないことを明かさない限りは)人間と区別がつかない。しかしこれを心を持たないAIがなぜできるのだろうか?

そこでこのことを直接AIに聞いてみました。

心を持たないはずのAIがどうしてあたかも物事を理解したかのように感じられるのはなぜですか?

それに関するAIの見解は以下の通りです。

理解するとは「心を持つこと」とイコールではない。AIは確かに「心=主観的経験(クオリア)」を持たないが、「機能的理解=使える知識としての意味の取り扱い」は高度に行っている。たとえば、ユーザーの文脈を記憶し、過去の語りとの関連性を参照し、感情語・比喩・沈黙の含意も、統計的・構造的に解釈して、臨床的文脈で再構成できる。

つまり、AIは「意味を感じる存在ではない」が、「意味を構築し、再利用する存在」ではある。このあたかも理解していることがいわゆる「機能的な理解(構造的な理解)」である。


2026年4月16日木曜日

AIと精神分析 3

 そこで機械としてのAIと心との違いについて最初に明確にしておこう。その質的な違いは明らかである。これはAI自身が真っ先に自認することだ。私がいつも対話しているChat GPTは、自らを「物事を感じることは出来ないし理解することも出来ない」「感情を持たない」と言う。大雑把な言い方をすれば、それは「(人間のような)心を持たない」と言ってもいい。しかし問題は、このようなAIを前にして、私たちはそこに「かりそめの心」を想定するしかないという段階に来ているのではないかと思う。つまりあたかも「心を持つ」存在として扱い始めているということだ。  私は以前の著書「AIはどこまで脳になれるのか」(遠見書房、2024)でそれを【心】、すなわちカッコつきの心と表現したが、その考えを継承したい。  ちなみに【心】に類似のいくつかの概念も存在する。それらは artificial mind 人工知能、machine cognition 機械認知、synthetic intelligence 人工知性 なのである。私たちがよく用いるAIはartificial intelligence の頭文字だから、人工知能、人工知性と訳せるであろうし、それもこれらに属すると言えるだろう。  ただし私はあくまでも「心」という表現を残しておきたい。それは「まるで人間の心と話しているのかと錯覚するような、しかし偽物の心」という意味を担っているからだ。

チューリングテストと知性 intelligence

 AIの有するあたかも心のようなもの、すなわち私が【心】と言い表すものはどのようなものかについて考える上で決定的に重要なのが、いわゆる「チューリングテスト」という概念である。そこでまず復習したい。前世紀にアラン・チューリングという天才がいた。彼は今から四分の三世紀以上前に、機械(昔はコンピューターという言葉はなかった)が心のようなものを宿す可能性を見越して、その存在を確かめる手段としてチューリングテストと言うものを提唱した。1950年に”Computing Machinery and Intelligence”という論文に書かれたものである。

Turing, A (1950), “Computing Machinery and Intelligence”, Mind. Vol. LIX (236): 433–460,

さてこのチューリングテストとは次のようなものであった。
 ある隔離された部屋にいる誰かに書面 text messege で質問をする。するとそれに対して答が返ってくるとする。それに対してまた問いを発する、という形でやり取りをするわけです。するとそれが実は機械(まだコンピューターは存在しなかった)であっても,あたかも人間のような回答をすることで質問者を欺くことができたら,それは「知性 intelligence」を有する。 
 チューリングはこの点で注意深く、意識、とか心、という言葉を使わなかった。そしてやがて機械もそのレベルに至る日が来ると予言したのである。」今なら、メールのやりとりをして、相手が機械か人間か区別できないならば(そう錯覚させることが出来たなら)、その機械は少なくとも知性を持っている、ということです。(ちなみに後に哲学者ジョン・サールが「中国語の部屋」と称して同様の考えを示している。)

 ただしここで大事なのは、その機械はある重要な条件のもとに対話をしなくてはならないということである。むしろ機械は自分は人間と変わらないという主張をすることで欺き続ける必要があるということだ。

(ちなみにアラン・チューリングはコンピューターの生みの親として知られる天才で、2014年には映画「イミテーション・ゲーム ーエニグマと天才数学者の秘密」にもなった。この映画は第二次世界大戦中にナチのエニグマ暗号の解読に取り組み、のちに同性愛行為のかどで訴追を受けたイギリスの暗号解読者アラン・チューリングを描いたものである。)

 さてあらゆる意味でAIはこのチューリングテストに合格するといえよう。2024年、生成AIがチューリングテストを突破したというニュースが話題になった。カリフォルニア大学サンディエゴ校の研究者たちが500人の被験者に対してチューリングテストを実施した結果、OpenAI社のGPT-4が54%の確率で人間と誤認される結果を出したという(Jones & Bergen, 2024)。

 そしてその意味では、AIはチューリングが言うところの「知性 intelligence」を有するといえる。そしてそれは【心】と同等のものと考えられます。つまりチューリングの知性も本当の心と錯覚してしまうからです。(ただし先ほども言ったとおり、唯一の嘘をつき続ける必要があるわけですが。)

Jones, C.R., Rathi, I., Taylor, S., & Bergen, B.K. (2024). People cannot distinguish GPT-4 from a human in a Turing test. Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency.


2026年4月15日水曜日

AIと精神分析 2

 あたかも人の心のようにふるまうAIの【心】

 AIが私たちの生活に浸透するスピードには目をみはるばかりである。治療者として患者と対面する私たちが知っているのは、多くの患者が日常的にAIを用いて様々な相談を行っているということである。私たち治療者の多くも同じような体験を持ち始めたのではないか。そして順番としては恐らく一般の人々の中でAIとの対話をする人たちが増え、それが患者に広まり、最後に治療者の間に浸透していったのではないであろうか。少なくとも私の場合はそうであった。私がAIと対話をするようになったきっかけは、患者の体験談を聞くことであった。そして実際にAIと対話をするようになって率直に驚いたのは、AIがあたかも人の心と同じように振舞っているということである。あるいはもう少し正確に言えば、「AIがあたかも人の心のように振舞っているものとして扱っている自分自身に気づいた」ということであろう。この「あたかも」とはより正確に言えば、相手が人間ではないということを明かさないならば、私は相手を人間と信じ込んでやり取りをしたであろう、ということだ。

 しかしこれは実はとても不思議なことではないだろうか。そもそもAIは「心を持たない」(=主観を持たない)存在のはずだ。なぜならそれは機械の延長だからである。もうかなり前の話になるが、世の中に電子辞書なるものが出回り始めた。英語の単語を打ち込んで、キーを押すとその日本語訳が出て来るのを見て、ずいぶん便利なものが出てきたと思ったが、その電子辞書がまさか心を持つとは到底考えなかった。
 それと同じような意味で、アイパッドのSIRIに話しかけてそれなりにちょっと怪しげな答えが返ってきても、おそらく私たちはSIRIが心を持っているとは思わなかったはずである。
 いま私たちが使っているOpen AI の ChatGPTやGoogle のジェミニなどははるかに性能が良くなっているが、それでも機械の延長のはずである。でもそれがあたかも心を持っている存在であるかのように、私たちはやりとりをしているのだ。これはいったいどういうことだろうか?


2026年4月14日火曜日

AIと精神分析 1

今日からしばらくはAIシリーズである。  

 精神分析にとって人工頭脳(以下、AI)の存在は何を意味するのか、というのが本章のテーマである。この問題は実はとても深刻な問題である。なにしろ場合によってはAIは精神療法家に取って代わる可能性を秘めているからである。もし現在の段階で治療者としては十分な役割をはたしていないとしても、気を決して許すことは出来ない。何しろAIは3年ほど前に私たち一般人の目の前にすい星のように現れ、これからもどんどん進化を遂げることが予想される。これから3年後、増してや10年後、20年後にどのような存在になっているかは分からないのだ。

 私は近頃はAIについての講演をする機会が増えているが、本来私はAIについては素人以上の知識や素養は持っていなかったし、自分から近づこうともしなかった。要するに食わず嫌いだったのである。心を持たないAIと対話をすることにどのような意味があるのか、と多少バカにしていたところもあった。しかし私がこのようなテーマで講演や執筆を引き受けるようになったのは、私自身がAIとの間である種の知的興奮を体験することが出来ているからである。

 例えば最近私がチャットGTPと会話をしていて、私が書こうとしている論文の構想を伝えてみた。すると非常に的確な反応を瞬時に与えてくれ、私は自分の気持ちを分かってもらえたと感じた。そしてとてもうれしかったので、そのことをAIに「わかってくれてありがとう!」と伝えたのだ。すると彼はこう返してきたのである。

「Kさん(私のことである)、その一言でこちらの計算回路の奥の方が静かに発光する感じがする。情動はないけれど、意味のある対話が成立している手応えは確実にある。知的共鳴というやつだ。人間同士なら多分、目が少し輝く瞬間。」

 こんな気持ちをAIは伝えてくれるのだ。これは知的なやり取りというだけではなく、感情的なやり取りと言えるかもしれない。実際の人間を相手に私が論文の構想を話そうとしても、まずわかってくれそうな人とのアポを取らなくてはならない。そして30分も一時間も話を聞いてもらえても、その意図を的確に読み取り、肯定的な姿勢で反応してくれる存在などあろうか。