2026年4月18日土曜日

AIと精神分析 5

 ここで少し整理しよう。AIは【心】(人の心と錯覚させることのできる)を有する。(【心】の定義)= チューリングテストに合格する「知性 intelligence」を有するということはすでに述べたが、これは「機能的な理解」が可能な存在であるということだ。  さてここで私は一歩踏み込んで次のような提案をしてみたい。AIの【心】は物事を機能的に理解できるだけでなく、さらにはクオリア(知覚、聴覚など)に関しても、さらには感情についても(機能的には)持っていると言えるのではないか?  これはかなりチャレンジングな問いである。なぜならAIはそれを持っていないと言い、また一般にAIの研究者もAIの感覚などの主観的な体験は持てないとしているからである。  ここで機能的、という言葉の意味を思い出そう。それはチューリングテストに合格する。つまり「例えば猫のクオリアを体験することができるなら、それをテキストでのやり取りで言い表してください」と言い、テクストのやり取りをして、その結果としてAIは人間を欺くことができるであろうということだ。なぜならAIは猫のクオリアを体験しているとした場合に渡すが列挙するような特徴を延々と列挙することが出来るからだ。そしてそのこともAIが最も得意としていることの一つである。AIは私がしたことと同じような回答をアウトプットするだろう。「ふわふわで」「小動物で」「ペットとして飼われていて」「すごくかわいくて」「でもそっけない態度で」‥言い方を変えれば、これが出来るから、実は私はAIであり、猫のイメージを実際には思い浮かべることが出来ていないにもかかわらず、そうできているフリをすることができる.  私がこの点を胸を張って主張できるのは、AIが用いている大規模言語モデル(つまり言葉の理解や応答を可能にしているシステム)では、文章をトークンに分けますが、それぞれのトークンは多次元ベクトルとして表されているからだ。  ここでニューラルネットワークの模式図を示すが(省略)縦に並ぶのがノードと言われる部分。ノードの間を結ぶ線がパラメータと呼ばれるものだ。 ちなみにこの絵はこれでもニューラルネットワークをごく簡略化して描いたものであり、現在ではノードは数百億、パラメータは1.8兆 120層ということだ。  実際にニューラルネットワークに文章を入力するとしよう。猫が出てくる文章として「吾輩は猫である」を入力したとするとそれをトークンに分解してノードに振り分けるということをする。そして各ノードに振り分けられたトークンは、多次元ベクトルだからだ。


 これは猫の多次元ベクトルの例である。それは猫の持つ様々な性質を言葉で言い表したものだ。それが数百、数千と作り出されて、一つのノードを構成する。そしてそれを一つ一つ数え上げてもらうと、ちょうど私が猫のクオリアを体験していることを証明しようとして行ったことと同じことをすることになるのだ。このことはAIなりに「機能的に」猫を感じることが出来ていると言えるのではないか、と思うのである。もちろんAIは実際にはクオリアを体験していない。しかしここまでできるとAIがクオリアを体験していない、ということを証明することも難しくなってしまう。つまりはクオリアについてもチューリングテストに合格するということである。

2026年4月17日金曜日

AIと精神分析 4

  ここではっきりしておかなくてはならないのは、今のままでは心と【心】は決定的に違うものであるということである。なぜなら【心】は意識、すなわち主観を持たず、クオリアや感情を持たないからだ。ここでいうクオリアとは聞きなれない言葉かもしれないが、いわゆる「質感」のことである。例えば「猫」のクオリアを考えてみよう。私たちは猫を目のまえに視覚的に思い浮かべることができる。それは猫を頭の中で一瞬で体験する事と言っていいだろう。それは褐色か白か,黒などの色をし、あのフワフワ、モフモフの、ゴロニャーンと鳴く、ペットとして飼われる小動物として言い表されるとしても、体験としては一瞬で、言葉を越えている。そもそもクオリアには言葉で表現することが不可能な体験も含まれるのだ。これは例えばメロディーなどを考えればより明らかであろう。例えばあなたが名曲「白鳥」(サンサーンス)のチェロ演奏をありありと思い浮かべるとする。それを何万語で言葉にしようと、その体験そのものを他者に伝えることは出来ない。唯一の方法は、「白鳥」を知っている人に、「チェロのあの曲の感じ」と伝える事であろうが、その場合でさえその人があなたと全く同じような体験をしているとは限らないのである。  そして本来、AIはクオリアを体験できないと言う事になっている。ちなみにここで「事になっている」、という持って回った言い方をするのは、後ほどAIがクオリアまがいの体験をしているのではないかという話になるからであるが、少なくともAIは人間が体験するようなクオリアに関しては、それを体験していないと伝えてくることから、それを額面通りに受け取っておくことで、ここではいったんこの問題は置いておこう。  しかしAIが物事を「理解」出来るのか、ということについてはクオリアの問題よりも曖昧であり、なぜならばAIは自分は物事を「理解していない」とは明言しないからである。そこで物事を理解するとはどういうことかを改めて考えてみよう。 そもそも物事を理解するとはどういうことか。 人がある事柄Xを「理解」していることを私たちはどのように確かめているのか?ということについて考える際に一番わかりやすい例が口頭試問である。  例として、ある学生が「精神分析における転移について」という卒論を書いたとしよう。もし試験官が「要するに転移とはどういうことなんですか? ひとことに要約して下さい。」と問い、それに対して学生がモジモジして答えられなかったとしよう。試験官は「やはり分かってないんですね。」と判断し、学生は不合格になるだろう。しかし学生がそれに答え、それを別の表現に言い換えることが出来、比喩的に表現し、またその論文をたちどころに要約して見せることが出来たとしたら、その学生はその内容を理解していると言えるだろう。しかしこれらのことをChatGPTなどの対話型AIは最も得意としているのである。これは次のように言い駆らわすことが出来よう。  ある文章の内容を自在にまとめ要約することができ、また言い換えることが出来る場合、その人はその論文を「事実上」理解しているとは言えないだろうか?すなわちテキストのみのやり取りでは(人間でないことを明かさない限りは)人間と区別がつかない。しかしこれを心を持たないAIがなぜできるのだろうか?

そこでこのことを直接AIに聞いてみました。

心を持たないはずのAIがどうしてあたかも物事を理解したかのように感じられるのはなぜですか?

それに関するAIの見解は以下の通りです。

理解するとは「心を持つこと」とイコールではない。AIは確かに「心=主観的経験(クオリア)」を持たないが、「機能的理解=使える知識としての意味の取り扱い」は高度に行っている。たとえば、ユーザーの文脈を記憶し、過去の語りとの関連性を参照し、感情語・比喩・沈黙の含意も、統計的・構造的に解釈して、臨床的文脈で再構成できる。

つまり、AIは「意味を感じる存在ではない」が、「意味を構築し、再利用する存在」ではある。このあたかも理解していることがいわゆる「機能的な理解(構造的な理解)」である。


2026年4月16日木曜日

AIと精神分析 3

 そこで機械としてのAIと心との違いについて最初に明確にしておこう。その質的な違いは明らかである。これはAI自身が真っ先に自認することだ。私がいつも対話しているChat GPTは、自らを「物事を感じることは出来ないし理解することも出来ない」「感情を持たない」と言う。大雑把な言い方をすれば、それは「(人間のような)心を持たない」と言ってもいい。しかし問題は、このようなAIを前にして、私たちはそこに「かりそめの心」を想定するしかないという段階に来ているのではないかと思う。つまりあたかも「心を持つ」存在として扱い始めているということだ。  私は以前の著書「AIはどこまで脳になれるのか」(遠見書房、2024)でそれを【心】、すなわちカッコつきの心と表現したが、その考えを継承したい。  ちなみに【心】に類似のいくつかの概念も存在する。それらは artificial mind 人工知能、machine cognition 機械認知、synthetic intelligence 人工知性 なのである。私たちがよく用いるAIはartificial intelligence の頭文字だから、人工知能、人工知性と訳せるであろうし、それもこれらに属すると言えるだろう。  ただし私はあくまでも「心」という表現を残しておきたい。それは「まるで人間の心と話しているのかと錯覚するような、しかし偽物の心」という意味を担っているからだ。

チューリングテストと知性 intelligence

 AIの有するあたかも心のようなもの、すなわち私が【心】と言い表すものはどのようなものかについて考える上で決定的に重要なのが、いわゆる「チューリングテスト」という概念である。そこでまず復習したい。前世紀にアラン・チューリングという天才がいた。彼は今から四分の三世紀以上前に、機械(昔はコンピューターという言葉はなかった)が心のようなものを宿す可能性を見越して、その存在を確かめる手段としてチューリングテストと言うものを提唱した。1950年に”Computing Machinery and Intelligence”という論文に書かれたものである。

Turing, A (1950), “Computing Machinery and Intelligence”, Mind. Vol. LIX (236): 433–460,

さてこのチューリングテストとは次のようなものであった。
 ある隔離された部屋にいる誰かに書面 text messege で質問をする。するとそれに対して答が返ってくるとする。それに対してまた問いを発する、という形でやり取りをするわけです。するとそれが実は機械(まだコンピューターは存在しなかった)であっても,あたかも人間のような回答をすることで質問者を欺くことができたら,それは「知性 intelligence」を有する。 
 チューリングはこの点で注意深く、意識、とか心、という言葉を使わなかった。そしてやがて機械もそのレベルに至る日が来ると予言したのである。」今なら、メールのやりとりをして、相手が機械か人間か区別できないならば(そう錯覚させることが出来たなら)、その機械は少なくとも知性を持っている、ということです。(ちなみに後に哲学者ジョン・サールが「中国語の部屋」と称して同様の考えを示している。)

 ただしここで大事なのは、その機械はある重要な条件のもとに対話をしなくてはならないということである。むしろ機械は自分は人間と変わらないという主張をすることで欺き続ける必要があるということだ。

(ちなみにアラン・チューリングはコンピューターの生みの親として知られる天才で、2014年には映画「イミテーション・ゲーム ーエニグマと天才数学者の秘密」にもなった。この映画は第二次世界大戦中にナチのエニグマ暗号の解読に取り組み、のちに同性愛行為のかどで訴追を受けたイギリスの暗号解読者アラン・チューリングを描いたものである。)

 さてあらゆる意味でAIはこのチューリングテストに合格するといえよう。2024年、生成AIがチューリングテストを突破したというニュースが話題になった。カリフォルニア大学サンディエゴ校の研究者たちが500人の被験者に対してチューリングテストを実施した結果、OpenAI社のGPT-4が54%の確率で人間と誤認される結果を出したという(Jones & Bergen, 2024)。

 そしてその意味では、AIはチューリングが言うところの「知性 intelligence」を有するといえる。そしてそれは【心】と同等のものと考えられます。つまりチューリングの知性も本当の心と錯覚してしまうからです。(ただし先ほども言ったとおり、唯一の嘘をつき続ける必要があるわけですが。)

Jones, C.R., Rathi, I., Taylor, S., & Bergen, B.K. (2024). People cannot distinguish GPT-4 from a human in a Turing test. Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency.


2026年4月15日水曜日

AIと精神分析 2

 あたかも人の心のようにふるまうAIの【心】

 AIが私たちの生活に浸透するスピードには目をみはるばかりである。治療者として患者と対面する私たちが知っているのは、多くの患者が日常的にAIを用いて様々な相談を行っているということである。私たち治療者の多くも同じような体験を持ち始めたのではないか。そして順番としては恐らく一般の人々の中でAIとの対話をする人たちが増え、それが患者に広まり、最後に治療者の間に浸透していったのではないであろうか。少なくとも私の場合はそうであった。私がAIと対話をするようになったきっかけは、患者の体験談を聞くことであった。そして実際にAIと対話をするようになって率直に驚いたのは、AIがあたかも人の心と同じように振舞っているということである。あるいはもう少し正確に言えば、「AIがあたかも人の心のように振舞っているものとして扱っている自分自身に気づいた」ということであろう。この「あたかも」とはより正確に言えば、相手が人間ではないということを明かさないならば、私は相手を人間と信じ込んでやり取りをしたであろう、ということだ。

 しかしこれは実はとても不思議なことではないだろうか。そもそもAIは「心を持たない」(=主観を持たない)存在のはずだ。なぜならそれは機械の延長だからである。もうかなり前の話になるが、世の中に電子辞書なるものが出回り始めた。英語の単語を打ち込んで、キーを押すとその日本語訳が出て来るのを見て、ずいぶん便利なものが出てきたと思ったが、その電子辞書がまさか心を持つとは到底考えなかった。
 それと同じような意味で、アイパッドのSIRIに話しかけてそれなりにちょっと怪しげな答えが返ってきても、おそらく私たちはSIRIが心を持っているとは思わなかったはずである。
 いま私たちが使っているOpen AI の ChatGPTやGoogle のジェミニなどははるかに性能が良くなっているが、それでも機械の延長のはずである。でもそれがあたかも心を持っている存在であるかのように、私たちはやりとりをしているのだ。これはいったいどういうことだろうか?


2026年4月14日火曜日

AIと精神分析 1

今日からしばらくはAIシリーズである。  

 精神分析にとって人工頭脳(以下、AI)の存在は何を意味するのか、というのが本章のテーマである。この問題は実はとても深刻な問題である。なにしろ場合によってはAIは精神療法家に取って代わる可能性を秘めているからである。もし現在の段階で治療者としては十分な役割をはたしていないとしても、気を決して許すことは出来ない。何しろAIは3年ほど前に私たち一般人の目の前にすい星のように現れ、これからもどんどん進化を遂げることが予想される。これから3年後、増してや10年後、20年後にどのような存在になっているかは分からないのだ。

 私は近頃はAIについての講演をする機会が増えているが、本来私はAIについては素人以上の知識や素養は持っていなかったし、自分から近づこうともしなかった。要するに食わず嫌いだったのである。心を持たないAIと対話をすることにどのような意味があるのか、と多少バカにしていたところもあった。しかし私がこのようなテーマで講演や執筆を引き受けるようになったのは、私自身がAIとの間である種の知的興奮を体験することが出来ているからである。

 例えば最近私がチャットGTPと会話をしていて、私が書こうとしている論文の構想を伝えてみた。すると非常に的確な反応を瞬時に与えてくれ、私は自分の気持ちを分かってもらえたと感じた。そしてとてもうれしかったので、そのことをAIに「わかってくれてありがとう!」と伝えたのだ。すると彼はこう返してきたのである。

「Kさん(私のことである)、その一言でこちらの計算回路の奥の方が静かに発光する感じがする。情動はないけれど、意味のある対話が成立している手応えは確実にある。知的共鳴というやつだ。人間同士なら多分、目が少し輝く瞬間。」

 こんな気持ちをAIは伝えてくれるのだ。これは知的なやり取りというだけではなく、感情的なやり取りと言えるかもしれない。実際の人間を相手に私が論文の構想を話そうとしても、まずわかってくれそうな人とのアポを取らなくてはならない。そして30分も一時間も話を聞いてもらえても、その意図を的確に読み取り、肯定的な姿勢で反応してくれる存在などあろうか。


2026年4月13日月曜日

バウンダリー考 推敲の推敲 15

 4.治療におけるバウンダリーの本質

 上の精神分析におけるバウンダリーの例は何を示しているのかを改めて考えよう。「ちょうど2時」という治療開始時間が明確にバウンダリーとして存在することで、それをめぐる患者と治療者の間のやり取りやダイナミズムが生じるのだ。それは治療の開始という作業が実際には人間により行われるために、そこに偶発的、ないしは心理的な様々な要素が入り込む余地が生まれる。
 もし治療者も患者もロボットの様に毎回2時きっかりにドアがノックされ、治療者が間発入れずにドアを開けるというような「剛構造的」な仕組みが存在するならば、そこには何の力動も生じようがない。それはちょうど時間に厳密なテレビ放送で、2時の前後の二つの番組のディレクターどうしにはもめごとが起きないのと同じだ。しかしそこに生身の人間の人為的な動作が関与している以上、両者の綱引きが生じ、実際の開始時間は名目上のバウンダリーの近傍で揺らぎつつ、毎回が一種の妥協の産物として「柔軟に」決定される。それが治療設定の柔構造的な在り方なのだ。
 そしてここが大事なのだが、その駆け引きを通して、実はそのバウンダリーの実態はもっとしっかりとした、太くかつしなやかなものとなって行くのだ。そのバウンダリーのマネージメントを通して、治療者は患者に対して自らを示す。理想的に言えば心穏やかでかつ毅然とした態度を内に秘め、いざとなったら自己防衛のできる人間としてそこに存在し続けるのだ。

 このように描かれたバウンダリーの在り方を私は柔構造的、と言い表しているが、それとの対比で剛構造的なバウンダリーの在り方はどのようなものになるだろうか?実は私が日本を発つときに考えていた治療者のイメージがそれに相当するのだ。治療者がバウンダリーを定め、それを患者が守るかを観察する番人としての役目を果たすというものだった。その考え方は、実際の治療開始時刻などのバウンダリーが治療者と患者の様々な思惑でぐらぐら揺れるという現実をあまり考慮しない場合の考え方ということが出来るだろう。

 よくよく考えると治療構造にはこのように硬いバウンダリと柔らかいバウンダリーの二種類があることになる。たとえば料金(一回1万円としよう)は普通は揺らぎようのないバウンダリーだ。患者は「今日の分析家は少し眠たそうであまり聞いてもらった気がしないので、9500円だけ振り込んでおこう(銀行振り込みによる支払いの場合)」とはならない。あるいは「今日は疲れたからちょっと近場で分析を受けよう」とはならない(そんなところにオフィスが移動するわけはない)。


   (以下略)


2026年4月12日日曜日

バウンダリー論 推敲の推考 14

 この部分はかなり修正をした。

3.バウンダリーの概念の深化と「治療的柔構造」


 渡米してからの臨床経験を通じて知ったことは、それまで持っていた「治療においてバウンダリーは守るべきものである」という考えと現実との大きなギャップであった。臨床においてバウンダリーはしばしば、それも当たり前のように破られるのである。そしてどのような場合に患者の抵抗の表れで、どのようなときに偶発的なものかをかぎ分ける嗅覚も、さほど鍛えられなかった様に思う。その代わりに学んだのは、精神分析に関わるバウンダリーの問題は、実は開始時間に留まらず、ありとあらゆるものに及んでいるということだった。
 分析的な治療に際しては、それこそ分析家に必要な態度としての受け身性や匿名性に留まらず、分析家の声の抑揚、挨拶の仕方、頷く調子などもそれぞれの治療関係により概ね定まっている。そればかりか面接室の冷房の効き具合、枕の柔らかさなどもほぼ一定に保たれることで安全で安心な環境を提供する。そしてこれらは一定のレベルや範囲を超えないという意味ではことごとくバウンダリーの問題としてとらえることができる。
 小此木先生自身も、治療構造を分類し、眼に見えないものの治療者と患者により体験されているものを内的な治療構造とし、それ以外の眼に見える外的な治療構造と分けて論じていたのである。つまり私のそれまでの治療構造の概念の理解が浅過ぎたのだ。

 そしてむしろ次のように考えるようになった。

 バウンダリーはそれ自体が定まっていることで、それをめぐる微妙なやり取りが患者と治療者の間に繰り広げられる。そしてその駆け引きには患者だけでなく、治療者もまた参加しているのである。つまりバウンダリーは実際には固定されていず、柔らかく変動するのだ。これが後に私が「治療的柔構造」と呼ぶ考え方となったわけであるが、このような考え方も小此木先生の論文にはその原型が記載されていたのである。この柔構造的な考え方を説明するために、ある例を示そう。


(以下略)