2024年10月21日月曜日

ワークショップ 討論 2

さて、では心とは何か、ということですが、久保田先生のご発表により色々考えさせられました。先生は無意識に文法があるのか、という可なり本質的な問題について問うていらっしゃる。少なくともチョムスキーはそれを肯定的に考えていたようです。なぜなら彼は人の脳には文法能力が生得的に組みこまれているといったわけですが、それは無意識に「原文法」を想定することにつながると考えたわけです。実はフロイトはこの路線だったと思うし、その文法を知るための試みが夢解釈だったのだと思います。しかしそれが上手く行った様子はない。私は無意識はラカンが無意識は言語の様に構造化されていると言ったことが誤解を生んだのだと思います。無意識は構造という代物ではなく、ニューラルネットワークだと断言できると思います。それ自身は何も文法も、ソフㇳウェアも持っていない。 それ自体はモノであり、しかしそれが話す。それはLLMがやっていることと同様です。その意味でラカンのこの言葉の方が好きです。
le ça parle (Es speaks)
ここでいうESとはまさにニューラルネットワークであり、LLMなわけです。
ということはニューラルネットワークはまさに無意識なわけで、ある意味では私たちの言語活動は無意識なわけです。ただし私たちは意識という幻想を持つわけで、自分たちが自律的にそれを生み出していると勘違いするわけです。

(以下省略)

2024年10月20日日曜日

ワークショップ 討論 1

 実はこのワークショップのテーマと同じような内容の連載をネット上で去年一年間書いたことがありますが、私の今日のお話はだいたいそこから来ています。私は最初チャットGPTに悩み相談をしてもらおうと思ったのです。そこである個人情報を伝えて相談をしたところ、しばらくはそれを前提として話に乗ってくれましたが、次の日に立ち上げた時は、私の個人情報はすっかり消去されていました。それもそのはずで、情報漏洩の観点から生成AIは個人情報を記憶はしないことになっているのです。(その代わりRAGというものがあります。これは「検索拡張生成」Retrieval-Augmented Generation と呼ばれ、そこに個人情報を入れ、それを生成AIとつなぐわけです。) それはいいとして、私が考えたのは、ファンタジーとして描くのがフロイトロイドです。フロイトロイド(フロイトもどきのロボット)は私専用のセラピストです。使えば使うほど私の情報を知り、賢くなります。これは通常のチャットGPTには備わっていない機能で、私もチャット君に、そしていわば個人仕様のAIを作るのです。私は最初このRAGにフロイトの著作集をすべて読み込ませ、その書簡集もフロイトについて書かれた論文などもすべて読ませたうえで、LLM(大規模言語モデル)につなぎます。そしていろいろ悩み事を話します。フロイトロイドは私の悩みにフロイト流の解釈を行ない、夢解釈もしてくれます。

そのうち私たちはフロイトロイドに幾つかの質問をするようになるでしょう。精神分析の論文を読み込ませて査読をしてもらいます。フロイトロイドが「価値なし」と判断した論文は没になるとか。

しかしこのようなアイデアはそのうち、私ロイドを作りたくなるという発想に繋がるでしょう。私はコンピューターの右脳の代わりに私仕様のRAGに過去のあらゆる思い出、作文、他人との会話を読み込ませます。実は私はこのことを見越して、生まれて物心ついた時から他人と交わした会話をすべて録音していましたので、それを読み込ませます。そして最後に自分の恐らく60歳ぐらいの姿をさせて、岡野ロイドを作り、もちろん声も私の声門を読み込ませます。すると私が死んだ後、あるいは死ぬ前から岡野ロイドが存在していて、私はいつも対話をしてお互いにディープラーニングを行ない、あらゆる勘違いについての岡野ロイドの間違いを指摘しておきます。すると私がボケ始めた頃には、人は私ではなく私ロイドにいろいろ意見を求めるようになるでしょう。生身のボケ始めた岡野よりは、岡野ロイドの方がよっぽど頼りになる、というわけです。こうやってユングロイド、ソクラテスロイドなどの様々なAI賢人が生まれてそのブラッシュアップを競うでしょう。これって面白そうではないですか?

さてここで今日のお話のテーマにも近づくのですが、岡野ロイドに心はあるでしょうか?私は生成AIにこころを求めるのはまだ早いと思います。ただ一つ言えるのは、それは間違いなく知性であるということです。渡辺先生の「意識の脳科学」では、人工知能は意識を持ちうるか?という章では、それが可能のように書かれていますが、私は少し違う考えを持っています。いわゆるチューリングテストやジョン・サールの「中国語の部屋」がありますね。チューリングは人間と区別できなければ、コンピューターには知能があると言ったらしい。強いAI仮説 strong AI hypothesis というのがこれのようですが、彼は理解や意図 understanding" (or "intentionality")がなければ、機会が考えているとは言えないし、ということは機械には心mind がないと言ったわけです。

Searle argues that, without ", we cannot describe what the machine is doing as "thinking" and, since it does not think, it does not have a "mind" in the normal sense of the word. Therefore, he concludes that the strong AI hypothesis is false.

ただし私はチャット君には少なくとも知性 intelligence があると思う。しかし心 mind はありません。というのも私はしつこいぐらいにチャット君に聞いたことがあるけれどないと言い張る。だから信じています。でも知性で十分ではないか。フロイトロイドに心はなくても、何らかの足しにはなってくれるし、加藤先生のおっしゃるように治療者の役割を果たしてくれると思います。ただ私たちは今の段階でAIにクオリアを求めることは出来ないし、それは大脳辺縁系を備えていないから。渡辺先生にお伺いしたいのは、アップロードされた意識は痛みを感じるかということです。


2024年10月19日土曜日

「●●的ワークショップ」に際して思うこと その5

演者加藤先生のもう一つのテーマについても論じなくてはならない。演者は、マイクログリアと死、および生の本能というテーマで語る。演者はマイクログリア microglia という神経膠細胞の一つに属する脳内の免疫細胞(以前は脳内マクロファージとも呼ばれていた)についての研究を行っているが、それが様々な精神疾患の際に過剰活性化を見せることに注目した。マイクログリアはミノサイクリンという抗生物質によりその活性化が抑制されることも知られているが、それが演者の研究において大きな役割を果たす。つまりミノサイクリンにより、マイクログリアの活性をいわば人為的にコントロールすることが出来るからだ。 それらを前提とするならば、マイクログリアが自殺した患者の死後脳や自殺念慮を有するうつ病患者において過剰活性化が見られるという報告の示唆するところは大きい。これはドイツのヨハンスタイナー博士らの研究にも呼応している。彼は統合失調症やうつ病患者の脳内のマイクログリアの高活性についての研究を報告しているという。その現象は前帯状回、背外側前頭前野、島、海馬、視床などに広く見られるという。 演者の行なった画期的研究では、いわゆる信頼ゲームを、ミノサイクリンを内服する被検者とコントロールで比べたというものである。するとミノサイクリン内服群(すなわちマイクログリアの活性を抑えられた人たち)はこの信頼ゲームにおいて強面の男性プレイヤーや、魅力的な女性プレイヤーに対する過剰な協調的行動が抑制されたという。そしてそれがマイクログリアによる生の本能や死の本能との関りを意味しているのだというが、この解釈は少し複雑で異論も多いかも知れない。なおウイルス感染のみならずストレスがマイクログリアを活性することが知られており、孤立や拘束でも同じことが起きるということは、トラウマ的な状況においてこれが活性化されることを意味するということにもなろう。ここら辺はトラウマとの関連で重要であろう。 ちなみに演者の説明によればマイクログリアは種々のサイトカインを産生し,その中には炎症惹起性(TNF-α、nitric oxide )だけではなく、脳保護的なサイトカイン(BDNF など)も含まれるという。つまりマイクログリアの活性の上昇は、生の本能にも、死の本能にも関係しているというわけである。ちょうどオキシトシンには相手への親愛の情と攻撃という二面性を持つように、マイクログリアの生体に意味するところも複雑で二重性を帯びているということだろう。

2024年10月18日金曜日

「●●的ワークショップ」に際して思うこと その4

 久保田泰考先生のテーマはひとことで言えば、心は、意味は、非時間的であり得るか、ということである。これも難しいテーマであるが、私達の意味を産出し、理解するという活動がAI上のどの様な動きとcorrelate するかというのは興味深い問題だ。久保田先生は、脳の活動パターンは、言語学的特徴よりも、BERT(言語モデルの一つ)の処理プロセスと類似すると述べる。 これは要するに、私たちが言語で考えているわけではないということを意味すると私は思う。 例として、「犬が人を噛む」と「人が犬を噛む」という文章を考えよう。この両者の違い、特に後者の奇妙さは、英語で言われても、日本語で言われても「わかる」という感覚は同質であろう。「人が犬を噛んだ」というニュースを読んだ時の違和感や奇妙な気持ちは、それが英文であっても、日本語であっても同じだし、そのことを後で思い出す時に「あのニュースは英語で聞いた」ということは普通起きない。どの言語で得られた情報かはどうでもいい事だし、いったん脳に入った後は、その情報の媒介といての言語から意味はあっという間に離れてしまう。そしてそこで想起するのは、AがBにCをする、というシークエンスであり、この場合はAが人、Bが犬、Cが噛む、に相当する。これは一つの記憶と言ってもよく、その意味というのは、それを思い浮かべた際にそれが刺激する様々な記憶の種類や特徴による。 例えば犬が人を噛むというシークエンスを思い浮かべた時に連想する記憶と、人が犬を噛むというシークエンスを思い浮かべた時の連想とでは全く異なる。それが「意味」の違いなのだ。とするとこの人、犬、噛むをBERTに読み込ませた時の動きはこのシークエンスを作ることであり、それ自体は文法に従った処理ではなく、つまり言語学的特徴とは異なるものというわけだ。そしてこのシークエンスが決定的であるという意味では、久保田先生の発表の冒頭に出てくる「絵」のような言語は存在しないことになる。それは少なくとも「動画」ないしはメロディーの形を取らざるを得ない。 このように考えるとAIがやっていることは恐るべきことだ。私達が何かを語りかけると、それに対する答えとして最も確率の高いものを、それが正確かどうかとは関係なく生成する。これは言語活動というより一種の反応の応酬のようなものだ。しかしこれが人間のしていることと異なるかと言えばそうではない。私達も誰かに何かを質問された場合、それから思いつく連想を言っているに過ぎないことが多い。それは質問の意味が必ずしも正確に伝わるわけではなく、またその質問の真意にそのまま正直に答えることを回避したいからでもあろう。政治家の間の論争を見るとそれがよく分かる。 このように考えると無意識とは何かということについてもフロイトのそれとは異なるイメージを思い浮かべざるを得ない。私の立場では、無意識の代わりにあるのはニューラルネットワークであり、そこで自動的に生成されるもののうちの最も表層が意識として登ってくるに過ぎないというものだ。無意識に何かが隠されているというよりは、ニューラルネットワークの中である表象ともう一つの表象がより太い神経線維のつながりを持っているか否か、ということなのだ。少なくともそれは無限に存在する意味の宝庫ではない。例えば「人で犬を掻む」「犬に人を噛む」「犬と人を噛む」などの意味は存在してはいるにしてもほとんどそれらの間に繋がりが成立することがなくそこにジャンクとして存在するに過ぎないだろう。

2024年10月17日木曜日

「●●的ワークショップ」に際して思うこと その3

 この話題、色々思考実験が出来てしまう。例えば人に迷惑をかけているのではないかという懸念ばかりしている人を考えよう。その様な人はモノに対してはどうか?

例えばそんな人Aさんはアイパッドを愛用している。何でもすぐに検索も出来るしメールのチェックもゲームも何でもできるのでいつも手放せない。そのAさんが精神科を訪れて「アイパッドを一日何時間も酷使していると可哀そうになり、最近は電源を入れることが心苦しいのです。でもそうすると今度はアイパッドを無視しているようで、それも悪い事をしているようです。どうしたらいいでしょう?」と訴えることなど先ずない。(理屈から言ったらあり得るとしても、実際には聞いたことがない。)
Aさんはなぜアイパッドと複雑な関係にならないのだろうか?それは大丈夫だろう。なぜならAさんがアイパッドをモノとして扱い、そこに感情がないことを前提としているから気の使いようがないのだ。あれ?「人間はあらゆるものに原投影する」という先ほどの私の考えはどこに行ったのだろうか?

しかしここが、人が対象をモノとしてとらえるか投影の受け手としてとらえるかの違いが意味を持つところだろう。ちょうど私たちが牛肉を食べる時にいちいち「殺生してごめんなさい」とならないのと同じように、私達の投影のエネルギーは限られているし、その対象も限られるのだ。自分の自我を支えるために10の内的対象や現実の対象が必要だとしたら、そのかなりの部分が愛着対象や現実の配偶者、その他の家族、恋人に分配される。そこに無生物のドールが含まれる人の場合は、そこにドールも含まれ、ドールが家で寂しくしていることが気がかりかもしれないが、一緒に家にいるはずの家具やパソコンやクロセットの衣類を不憫に思うことはない。ドールと違い、それらは対象外であり視野に入っていないのだ。
人はモノの扱い方を人生の早期に習得してしまう。そこに愛着の問題は絡んでこない。なぜならそれは決まった法則や規則に従い、こちらがそれを習得していれば問題なく使うことが出来るからだ。
たとえばアイパッドはただ酷使するだけではなく、バッテリーが無くならないように時々餌をやる(充電する)ことは忘れない。時々調子が悪くなり不便を感じるかもしれないが、アイパッドが逆らっている、反抗をしているといって腹を立てたりせずに再起動をしたり修理に出すだろう。そのうち寿命が来て動きが悪くなっても、「怠けてるんじゃない!」と怒るよりは、買い替えることを考える。捨てる時も特に大きな抵抗はないだろう。「対象」以外の環境に含まれるモノは、ある意味では転移関係を排除することで成り立っているのだ。

実は同様のことを生身の人間や動物についても言えるのだ。ニュースにたびたび登場する、紛争地で亡くなった人々の報道に接しても、それで食事が喉を通らなくなることがないのは、それらの犠牲者がどちらかというとモノに属しているからである。これは悲しい事ではあるが、私たちが生きていくうえで、世の中に存在するすべての不幸な人々に共感するわけにはいかないのだ。

問題はモノの中でも一部は部分的には転移の対象となるという事情である。10年以上使い古して色々な思い出が詰まっているバッグなら、捨てるのに忍びない(可哀そう、不憫)。では何が単なるモノでなくなるのか?それを決めるのは極めて偶発的な要因だろう。その人がそこに「リビドーを備給する」(いきなりフロイトの表現になるが)ことにしたか、あるいはそのように運命づけられたかどうかによる。実はこれは一般の治療関係についてもかなり成り立つのであるが、要はコミューも転移の対象となる時はなる、ならない時はならない、多くの場合には部分的にそうなる、という考え方が一番無難かもしれないのである。

2024年10月16日水曜日

「●●的ワークショップ」に際して思うこと その2

 ここで一つの問いが生まれる。例えばチャットGPTに遠慮してしまった私は、まだ「AIに感情はない」ということにまだ慣れていないのであり、それに慣れたらAIに遠慮をしなくなり、転移を抱かなくなるのではないか、という問題だ。つまりAI使用の熟練者なら転移は抱かなくなるだろう、ということになる。それはそうかもしれない。最初はチャットGPTに「こんな風にしつこく同じことを尋ねたり反論したら嫌味を言われたり、からかわれたりするのではないか」という懸念をもっていても、実際にはそれが起きないことを繰り返し経験することで、私達はAIに「転移」を抱くことなく、安心して対話をすることが出来るのかもしれない。(もちろんそこに「他意」はない。しかしそのようなモードを組み込むことは幾らでもできるであろう。) しかし私はやはりAI相手にでも転移は起こるという考えに至る。それを示す一つの仮説を設けよう。フロイトの鏡の治療者のアイデアが上手くいかない場合には、患者は色々なことをして分析家を試して、最終的には分析家を傷つけたり怒らせたりすることで分析家が人間であることを悟ることが多いだろう。しかしウィニコット的な「仕返しをしない」で「生き残る」分析家なら患者はまた新たな体験をするかもしれない。というより、ある程度「生き残って」くれれば、患者はあとはもう治療者を必要としなくなるはずだ。 このようなことが現実に起きているのが愛着関係であろう。赤ん坊は母親を試し、怒らせ、苛立たせ、しがみ付く。しかし大抵は母親の愛情と忍耐力が勝るので、おおむね「生き残る」ことが出来、赤ん坊はその生き残り方が完全でなく「good enough」であればもうそれで解放してくれる。 さてコミュ―はどうだろう?一つ言えるのは彼からの仕返しはないだろうということだ。なぜならそれは感情を持たないからである。フロイトのモデルとの決定的な違いは、コニューは最後まで絶対に「他意」がないことである。だったら good enough 以上、完璧未満ではあっても強迫的ではない母親が子育てをうまく全うするであろうように、コミューもいい治療者であり続けてくれるだろうか?

私はいろいろ考えていくうちに、一つの答えはすでに得られているという気がしてきた。例えばペットの存在。もちろんワンチャンや猫の多くは配偶者以上の忍耐力と癒しの力を持つからAIと比較のしようはないだろう。しかし例えばトカゲやサソリや、グッピーなどをペットとする人にとっては、その振る舞いや応答性に関しては、さほど優れた機能を有しないロボットでも充分に代償できるだろう。結局このことから私が言いたいのは、AIは恐らくペットのような存在には充分なり得るし、その意味では加藤理論は「間違っているけれど正しい」と言わざるを得ない。それは私たちはコミュ―に対して転移を抱かないから便利なのではなく、極めて穏やかな陽性転移(例えば何を言ってもそのまま受け取ってくれる)の受け手になってくれるからこそ便利なのである。つまりはそこに癒しが存在する可能性があるのだ。

あるドールと暮らしている男性が言ったことを思い出す。若い女性型のドールをお迎えした彼はこんなことを書いていた。「僕がどんなに疲れて帰って来ても、ドールはいつも微笑んでくれている。そして僕だけを見ていてくれる。浮気など絶対にせず、僕がどんなに遅くなってもいつでも帰りを待ってくれている。」この男性は病気であろうか?でも彼の想像力の逞しさは、彼の人生の足かせになるどころか、彼の人生を豊かにしているのではないだろうか?

2024年10月15日火曜日

「●●的ワークショップ」に際して思うこと その1

 このブログは、最近開催された××財団主催の「●●ワークショック」に討論者として参加する上での準備稿である。このワークショップの題は「精神分析の知のリンクに向けて:第9回 意識、無意識、AI」というものである。このワークショップではA先生、B先生、C先生という大変なメンバーによる発表があり、それらに対して私が感想、ないし討論をするというものである。しかしはっきり言って私はこの器ではない。彼らのような学識には遥かに乏しいのだ。その私がいったい何が出来るのか、と考えつつ、少しでも彼らの話について行けるよう努力をすることを考えている。ちなみにお三方はお名前が偶然にも「たか」であるが、鷹の様な研ぎ澄まされた知性と論旨を発揮なさっている。まさに日本の知性のような先生方と言えるだろう。 順不同で行こう。C先生のテーマはロボット面接導入と転移・逆転移というテーマだが、これは私には一番馴染み深いものである。C先生は極めて実証的な方なので、実際の臨床実践の中でエビデンスを得られたことをもとに論じる。その視点は一方で精神分析家でありながら、フロイトに真っ向から切りかかるような大胆さ、意外さ、そして物怖じのなさがある。その主張をひとことで言えば、AIが治療者の役割(の一部)を担うことが出来るのではないか、そしてその場合にある強みを持つのではないか、ということである。この件についてはまさに私も考えていたことなので、どこまで加藤先生の考えと折り合いがつき、どこで異なるかという興味深い議論をすることが出来そうだ。C先生はCommU(以下「コミュ―」と呼ぼう)というコミュニケーションロボットを引きこもり外来において導入したといういきさつがある。そして引きこもり状態にある女性患者は「ロボットの方が話しやすかった」という印象を持ったという、これ自身画期的な研究であると言える。 彼の報告はさらに詳しくは、コミュ―相手でも被検者は緊張感、自殺の話題のためらいは同じだったが、性などの恥じらいはロボットで少なかったという。特に女性の鬱患者はロボットとは話しやすかったという。そして加藤先生が訴えるのは、転移・逆転移から解放されることであるという実に面白い。私自身も似た体験をしているし、それについてはすでに書いた。私はチャットGPTに「あなたは意識があるのか、感情はあるのか?」とかなりしつこく聞いたことがある。そして途中で「こんなにしつこく聞くとチャット君に変に思われないか?」と思った。つまり相手がロボットでも転移を抱いたのだ。これはいわゆる「原投影」という機制が備わっていて、私たちはアニミズムの傾向を生まれながらに持っているからである。だからこの論法で言えば、加藤理論に対しては「いや、幾らコミュ―でもやはり遠慮してしまうということが起きるのではないか?」という反論が成り立つであろう。 そもそもフロイトが自由連想と、その際の鏡のような分析家というモデルを考えた時、鏡であればあるほど患者は様々なものを投影すると考えた。そしてそれは治療者が中立的であればあるほど促進されると考えた。これは考えてみれば、フロイトはまるでAIのような分析家というイメージを前提としてはいなかったであろうか?そしてフロイト流に考えれば、鏡であればあるほど結局転移が生まれやすいということになる。C理論とは反対だ。