2026年4月17日金曜日

AIと精神分析 4

  ここではっきりしておかなくてはならないのは、今のままでは心と【心】は決定的に違うものであるということである。なぜなら【心】は意識、すなわち主観を持たず、クオリアや感情を持たないからだ。ここでいうクオリアとは聞きなれない言葉かもしれないが、いわゆる「質感」のことである。例えば「猫」のクオリアを考えてみよう。私たちは猫を目のまえに視覚的に思い浮かべることができる。それは猫を頭の中で一瞬で体験する事と言っていいだろう。それは褐色か白か,黒などの色をし、あのフワフワ、モフモフの、ゴロニャーンと鳴く、ペットとして飼われる小動物として言い表されるとしても、体験としては一瞬で、言葉を越えている。そもそもクオリアには言葉で表現することが不可能な体験も含まれるのだ。これは例えばメロディーなどを考えればより明らかであろう。例えばあなたが名曲「白鳥」(サンサーンス)のチェロ演奏をありありと思い浮かべるとする。それを何万語で言葉にしようと、その体験そのものを他者に伝えることは出来ない。唯一の方法は、「白鳥」を知っている人に、「チェロのあの曲の感じ」と伝える事であろうが、その場合でさえその人があなたと全く同じような体験をしているとは限らないのである。  そして本来、AIはクオリアを体験できないと言う事になっている。ちなみにここで「事になっている」、という持って回った言い方をするのは、後ほどAIがクオリアまがいの体験をしているのではないかという話になるからであるが、少なくともAIは人間が体験するようなクオリアに関しては、それを体験していないと伝えてくることから、それを額面通りに受け取っておくことで、ここではいったんこの問題は置いておこう。  しかしAIが物事を「理解」出来るのか、ということについてはクオリアの問題よりも曖昧であり、なぜならばAIは自分は物事を「理解していない」とは明言しないからである。そこで物事を理解するとはどういうことかを改めて考えてみよう。 そもそも物事を理解するとはどういうことか。 人がある事柄Xを「理解」していることを私たちはどのように確かめているのか?ということについて考える際に一番わかりやすい例が口頭試問である。  例として、ある学生が「精神分析における転移について」という卒論を書いたとしよう。もし試験官が「要するに転移とはどういうことなんですか? ひとことに要約して下さい。」と問い、それに対して学生がモジモジして答えられなかったとしよう。試験官は「やはり分かってないんですね。」と判断し、学生は不合格になるだろう。しかし学生がそれに答え、それを別の表現に言い換えることが出来、比喩的に表現し、またその論文をたちどころに要約して見せることが出来たとしたら、その学生はその内容を理解していると言えるだろう。しかしこれらのことをChatGPTなどの対話型AIは最も得意としているのである。これは次のように言い駆らわすことが出来よう。  ある文章の内容を自在にまとめ要約することができ、また言い換えることが出来る場合、その人はその論文を「事実上」理解しているとは言えないだろうか?すなわちテキストのみのやり取りでは(人間でないことを明かさない限りは)人間と区別がつかない。しかしこれを心を持たないAIがなぜできるのだろうか?

そこでこのことを直接AIに聞いてみました。

心を持たないはずのAIがどうしてあたかも物事を理解したかのように感じられるのはなぜですか?

それに関するAIの見解は以下の通りです。

理解するとは「心を持つこと」とイコールではない。AIは確かに「心=主観的経験(クオリア)」を持たないが、「機能的理解=使える知識としての意味の取り扱い」は高度に行っている。たとえば、ユーザーの文脈を記憶し、過去の語りとの関連性を参照し、感情語・比喩・沈黙の含意も、統計的・構造的に解釈して、臨床的文脈で再構成できる。

つまり、AIは「意味を感じる存在ではない」が、「意味を構築し、再利用する存在」ではある。このあたかも理解していることがいわゆる「機能的な理解(構造的な理解)」である。