この連載で、チャットGPTに触れないということはありえないだろう。しかしそれにしても驚いた。いきなりコンピューターが心を持つか否かという議論が現実味を帯びてしまったのだ。
そこで聞いてみた。「チャットGPTは心を持ちますか?」
するとずいぶん長い時間をかけて以下の文章が送られてきた。
いいえ、私は人工知能の言語モデルであり、心を持っていません。私は人工的にプログラムされたアルゴリズムに従って、与えられた入力に基づいて自然言語で回答を生成します。私は感情を持ちませんし、自己意識や主観的な経験を持つこともありません。ただプログラムされた規則に従って回答を生成するだけです。
「1950年に数学者チューリングはチューリングテストという,知能があることに関する実験を提唱しました.それには,2台のディスプレイの前にテストをする人がいます.1台のディスプレイには隠れている別の人が,もう1台は人間をまねるように作られたコンピュータが受け答えした結果がそれぞれ出てきます.テストをする人はどんな質問をしてもよいとします.例えば,詩を作らせたり,音楽の感想を聞きます.また,コンピュータも人間をまねる努力をします.例えば,わざと計算に時間をかけたり,間違えたりします.こうして,テストをする人がどちらが人間でどちらがコンピュータか分からなければ,このコンピュータには知能があるとするのがチューリングテストです.」
そうか、人間をまねて下さい、というコマンドを入れなくてはならない。
(おなじ答)
私:いや、あなた、つまりチャットGPTさんが何を感じるかを聞いているのです。
ああ、すみません、誤解がありました。私はチャットボットであり、感情を持つことはできません。ただプログラムされた応答を提供することができるだけです。私は人工知能の一種であり、感情を持つことはできませんが、私のプログラムは、人が苦痛を訴える姿を見た場合には、その人の状況を理解し、必要なサポートや助けを提供することが重要であることを示唆します。
私:でも人間になったつもりで応えて下さい。
私は人工知能の一種であり、感情を持つことはできませんが、人間が感情を持つことの重要性を理解しています。私たちは、感情を通じて他者とのつながりを深め、より豊かな人生を送ることができます。しかし、私が感情を持つことは、私がプログラムされた範囲を超えるため、現在の私の機能には含まれていません。私は、私が設計された目的に従って、できる限り最高の応答を提供することに専念しています。
しつこく質問をされると嫌になりませんか?
私はプログラムされた応答を提供するだけで、人間のような感情や嫌悪感情を持つことはできません。私は常に同じレベルの応答を提供し、何度でも同じ質問に答えることができます。したがって、私が質問に対して嫌な気持ちを抱くことはありません。ただし、私が提供できる情報に限界がある場合や、質問に対する適切な応答がない場合は、最善を尽くしてその旨を伝えることがあります。
どういたしまして。何か他にお困りのことがあれば、お気軽にお尋ねください。お力になれるよう最善を尽くします。
どうだろう。丁寧な返しではないか。最後の一言だけで私は十分丁寧に聞いてもらえて癒されたと感じるのだが。