ここで少し整理しよう。AIは【心】(人の心と錯覚させることのできる)を有する。(【心】の定義)= チューリングテストに合格する「知性 intelligence」を有するということはすでに述べたが、これは「機能的な理解」が可能な存在であるということだ。 さてここで私は一歩踏み込んで次のような提案をしてみたい。AIの【心】は物事を機能的に理解できるだけでなく、さらにはクオリア(知覚、聴覚など)に関しても、さらには感情についても(機能的には)持っていると言えるのではないか? これはかなりチャレンジングな問いである。なぜならAIはそれを持っていないと言い、また一般にAIの研究者もAIの感覚などの主観的な体験は持てないとしているからである。 ここで機能的、という言葉の意味を思い出そう。それはチューリングテストに合格する。つまり「例えば猫のクオリアを体験することができるなら、それをテキストでのやり取りで言い表してください」と言い、テクストのやり取りをして、その結果としてAIは人間を欺くことができるであろうということだ。なぜならAIは猫のクオリアを体験しているとした場合に渡すが列挙するような特徴を延々と列挙することが出来るからだ。そしてそのこともAIが最も得意としていることの一つである。AIは私がしたことと同じような回答をアウトプットするだろう。「ふわふわで」「小動物で」「ペットとして飼われていて」「すごくかわいくて」「でもそっけない態度で」‥言い方を変えれば、これが出来るから、実は私はAIであり、猫のイメージを実際には思い浮かべることが出来ていないにもかかわらず、そうできているフリをすることができる. 私がこの点を胸を張って主張できるのは、AIが用いている大規模言語モデル(つまり言葉の理解や応答を可能にしているシステム)では、文章をトークンに分けますが、それぞれのトークンは多次元ベクトルとして表されているからだ。 ここでニューラルネットワークの模式図を示すが(省略)縦に並ぶのがノードと言われる部分。ノードの間を結ぶ線がパラメータと呼ばれるものだ。 ちなみにこの絵はこれでもニューラルネットワークをごく簡略化して描いたものであり、現在ではノードは数百億、パラメータは1.8兆 120層ということだ。 実際にニューラルネットワークに文章を入力するとしよう。猫が出てくる文章として「吾輩は猫である」を入力したとするとそれをトークンに分解してノードに振り分けるということをする。そして各ノードに振り分けられたトークンは、多次元ベクトルだからだ。
これは猫の多次元ベクトルの例である。それは猫の持つ様々な性質を言葉で言い表したものだ。それが数百、数千と作り出されて、一つのノードを構成する。そしてそれを一つ一つ数え上げてもらうと、ちょうど私が猫のクオリアを体験していることを証明しようとして行ったことと同じことをすることになるのだ。このことはAIなりに「機能的に」猫を感じることが出来ていると言えるのではないか、と思うのである。もちろんAIは実際にはクオリアを体験していない。しかしここまでできるとAIがクオリアを体験していない、ということを証明することも難しくなってしまう。つまりはクオリアについてもチューリングテストに合格するということである。