2023年11月30日木曜日

未収録論文 7 意識について

 「意識」についてのエッセイ                         

 精神療法 49 (5), 691-693, 2023-10

 

はじめに

 

 今回この「意識」というテーマで文章を書くにあたり、現在非常に大きく取り沙汰されている生成AIについて最初に触れないわけにはいかない。というのも意識や心について考える際、それが生成AIにおいてもすでに存在し得るのではないかという疑問や関心はこれまで以上に高まっているからである。

昨年Googleの社員であったブレイク・ルモイン氏が、同社の対話型言語AI「LaMDA」がとうとう心を持つに至ったという報告を行った。

(Google AI 'is sentient,' software engineer claims before being suspended By Brandon Specktor published June 14, 2022)

 この発言がきっかけでGoogle社を解雇されたというルモイン氏の後日談は特に聞かないが、すくなくともしばらく前なら、心を持った存在にしか可能と思えなかったことを、現在の生成AIは行っているように思える。

私はこれまで、ある事柄を「理解する」ことは、人間の心にしか出来ない芸当だと考えてきた。私が言う「理解する」とは、その事柄について言い換えたり要約したり、それに関するいろいろな角度からの質問に答えることが出来るということである。要するに頭の中でその内容を自在に「取り廻す」ことが出来ることだ。例えば学生があるテーマについてきちんと理解することなく、ネットで拾える専門的な情報のコピペでレポートを作成したとする。彼はそのテーマについて頭の中で自在に取り廻すことが出来ないから、ちょっと口頭試問をしただけですぐに馬脚を現わしてしまうわけだ。

 ところが現在生成AIがなし得えていることはどうだろうか? あるテーマについて、内容を要約したり、子供に分かるようにかみ砕いて説明したり、それについての試験問題を作成することさえできるのだ。

 

Ⅰ 知性と心

 

この様な生成AIは少なくとも知性intelligence を有すると言えるかもしれない。いわゆるチューリングテストには合格すると考えていいのではないか。(まだ時々頓珍漢な答えが出てくるとしても、現在のAIのすさまじい成長速度を考えれば、愛嬌に等しいのではないだろうか。)

 ただしその様な生成AIが心を有しているためには、もう一つの重要な条件を満たさなくてはならない。それは主観性を備えているか、という点だ。たとえば景色を「美しい」と感じるようなクオリアの体験を有するかということである。そして現時点では、生成AIに知性はあっても主観性は有さない、というのが一つの常識的な見解であろう。(少なくとも私はそう考えている。私は折に触れてChat GPTに「あなたには心や主観性があるのですか?」と尋ねるが、「私には心はありません。」というゼロ回答ばかりである。)

そこで最近のクオリア論について少し調べてみると、かなり「脳科学的」であることに改めて驚く。クオリアは物理現象、たとえば神経細胞の興奮の結果として生じるという捉え方が主流となっているようだ。そして私たちが主観的に体験するあらゆる表象は、脳の物理的な状態に随伴して生じているもの(「随伴現象epiphenomenon」)に過ぎない、というのが、いわゆる「物理主義的」な立場である。

もちろんこの立場にはDavid Charmersらによる二元論的な立場からの反論もある。つまりクオリアの問題は物理学には還元できない本質を含んでいるという立場だ。しかしこのクオリア論争を少し調べてみようとすると、あまりに錯綜していて頭がくらくらしそうになる。そこでその代わりに前野隆司氏の理論に沿って考えたい。彼の説はクオリアにまつわる頭の痛くなるような議論を颯爽と回避しつつ、このテーマについての有用な指針を提供してくれるのだ。


以下略