そこで機械としてのAIと心との違いについて最初に明確にしておこう。その質的な違いは明らかである。これはAI自身が真っ先に自認することだ。私がいつも対話しているChat GPTは、自らを「物事を感じることは出来ないし理解することも出来ない」「感情を持たない」と言う。大雑把な言い方をすれば、それは「(人間のような)心を持たない」と言ってもいい。しかし問題は、このようなAIを前にして、私たちはそこに「かりそめの心」を想定するしかないという段階に来ているのではないかと思う。つまりあたかも「心を持つ」存在として扱い始めているということだ。
私は以前の著書「AIはどこまで脳になれるのか」(遠見書房、2024)でそれを【心】、すなわちカッコつきの心と表現したが、その考えを継承したい。
ちなみに【心】に類似のいくつかの概念も存在する。それらは artificial mind 人工知能、machine cognition 機械認知、synthetic intelligence 人工知性 なのである。私たちがよく用いるAIはartificial intelligence の頭文字だから、人工知能、人工知性と訳せるであろうし、それもこれらに属すると言えるだろう。
ただし私はあくまでも「心」という表現を残しておきたい。それは「まるで人間の心と話しているのかと錯覚するような、しかし偽物の心」という意味を担っているからだ。
チューリングテストと知性 intelligence
AIの有するあたかも心のようなもの、すなわち私が【心】と言い表すものはどのようなものかについて考える上で決定的に重要なのが、いわゆる「チューリングテスト」という概念である。そこでまず復習したい。前世紀にアラン・チューリングという天才がいた。彼は今から四分の三世紀以上前に、機械(昔はコンピューターという言葉はなかった)が心のようなものを宿す可能性を見越して、その存在を確かめる手段としてチューリングテストと言うものを提唱した。1950年に”Computing Machinery and Intelligence”という論文に書かれたものである。
Turing, A (1950), “Computing Machinery and Intelligence”, Mind. Vol. LIX (236): 433–460,
さてこのチューリングテストとは次のようなものであった。
ある隔離された部屋にいる誰かに書面 text messege で質問をする。するとそれに対して答が返ってくるとする。それに対してまた問いを発する、という形でやり取りをするわけです。するとそれが実は機械(まだコンピューターは存在しなかった)であっても,あたかも人間のような回答をすることで質問者を欺くことができたら,それは「知性 intelligence」を有する。
チューリングはこの点で注意深く、意識、とか心、という言葉を使わなかった。そしてやがて機械もそのレベルに至る日が来ると予言したのである。」今なら、メールのやりとりをして、相手が機械か人間か区別できないならば(そう錯覚させることが出来たなら)、その機械は少なくとも知性を持っている、ということです。(ちなみに後に哲学者ジョン・サールが「中国語の部屋」と称して同様の考えを示している。)
ただしここで大事なのは、その機械はある重要な条件のもとに対話をしなくてはならないということである。むしろ機械は自分は人間と変わらないという主張をすることで欺き続ける必要があるということだ。
(ちなみにアラン・チューリングはコンピューターの生みの親として知られる天才で、2014年には映画「イミテーション・ゲーム ーエニグマと天才数学者の秘密」にもなった。この映画は第二次世界大戦中にナチのエニグマ暗号の解読に取り組み、のちに同性愛行為のかどで訴追を受けたイギリスの暗号解読者アラン・チューリングを描いたものである。)
さてあらゆる意味でAIはこのチューリングテストに合格するといえよう。2024年、生成AIがチューリングテストを突破したというニュースが話題になった。カリフォルニア大学サンディエゴ校の研究者たちが500人の被験者に対してチューリングテストを実施した結果、OpenAI社のGPT-4が54%の確率で人間と誤認される結果を出したという(Jones & Bergen, 2024)。
そしてその意味では、AIはチューリングが言うところの「知性 intelligence」を有するといえる。そしてそれは【心】と同等のものと考えられます。つまりチューリングの知性も本当の心と錯覚してしまうからです。(ただし先ほども言ったとおり、唯一の嘘をつき続ける必要があるわけですが。)
Jones, C.R., Rathi, I., Taylor, S., & Bergen, B.K. (2024). People cannot distinguish GPT-4 from a human in a Turing test. Proceedings of the 2025 ACM Conference on Fairness, Accountability, and Transparency.