ディープラーニングと感情の問題
ディープラーニングについて少し駆け足でお話をしたが、結果的にかなりノー天気な話で終わりかけている。しかし私の良心はこのままで終わらすわけにはいかない(大袈裟だ)。ここまでの私の論旨の流れはこうだ。ディープラーニングは人間の脳の働きを模している。その結果出来上がる【心】は本当の心と違っていたっていいではないか。要するに話し相手になってくれればいいのである・・・・。そして私は調子に乗って Microsoft Bing にフロイトロイドの作画をもとに手直しをして使っている。(著作権の問題はどうなるのだろうか?)「将来はAIが話し相手になってくれるから大丈夫だよ!」と言っているようなものだ。
ところがここには大きな問題がある。そしてこれは実は【心】≒心? という問題と結局は関わってくる。このままだと両者はほぼ等号で結ばれるかのようなニュアンスを伝えている。しかしそう考えることには大きな問題があるのだ。
先ほどからディープラーニングは一種の学習装置であるということを述べた。そして確かに優秀である。しかもその性能は日進月歩で増している。でも結局はその基本的な性質は入力→隠れ層→出力の繰り返しであり、どこかに出力が望ましいか、望ましくないかの判断基準が存在しなくてはならない。もしこれが囲碁や将棋などの勝負の明確なゲームならば、負けに至ったルートの間に存在しているパラメーターが改変され、やがてより勝ちに近づいていくように調整されるであろう。ところが人に関してはどうだろう?何が正しく、何が間違っていると教えてくれるのだろうか?
人間の場合(そしてもちろん多くの生命体の場合)その答えはあまりにはっきりしているように思う。それは痛みや不快である。赤ちゃんが哺乳瓶に手を伸ばす。しかし力の加減が上手く出来ずにつかむことが出来ない。赤ちゃんは不快な思いをするはずだ。そしてそれが出来るようになるまで何度も試みるだろう。ついにそれをつかむことが出来たら喜びを味わうはずだ。この様に正しい、間違えというフィードバックは快、不快という体験の中に埋め込まれている。でもそれは生命体に特有のものである。コンピューターの場合はどうなのだろうか? コンピューターに快、不快を体験させることは出来ないのか?
ただこのように問うとたちまち答えが返ってくる。
「コンピューターが感情を持つことはありません」。しかしそれなら生命体はどうしてそれを体験することが出来るのか? 実はこの問題を迂回する妙案がある。それは適者生存の考え方だ。ある、快不快を感じる事のない生命体を考える。その生命体の赤ちゃんが目の前の哺乳瓶に手を伸ばす。うまくつかむことが出来ても人間の赤ちゃんのように「やった!」と喜ばない。でもおそらくうまくつかむことのできる赤ちゃんは、ミルクを飲むことで生存する可能性がより高くなる。結局は物をつかむことが上手い赤ちゃんが生き延びていく。つまりは最終的に生き延びている生命体は、生存の可能性がより高まるような個体という風に考えてもいいことになる。快、不快を体験しなくてもいいことになるのだ。しかし、それならどうして私たちは快不快を、感情を持っているのだろうか?
自分の手をつねると痛い。この痛みはありありと私たちに体験される。私達は自分たちの行動が明らかにこの痛み、ないしは快感に導かれているように感じる。フロイトのいう「快感原則」である。上の議論はしかし、これが幻にしか過ぎないということを示唆する。私たちの祖先のうち、体の一部を鋭い何かで刺激されて皮膚が破ける恐れがあるような状況で、手を急いで引いてその刺激を回避する傾向のある個体が生き延びた。それが私達である。私達はなぜか鋭い刺激を回避するが、それはたまたまであり、痛いから、ではない。というより痛みは幻でしかないのだ‥‥。