ところで昨日の話の中の「ゴールデンゾーンのPE」はチャット君の造語だが、もとになっている考え方は非常に広く支持されている理論的背景がある。という。ここもチャット君に聞いたら以下のような答えになった。
Optimal Arousal Theory(最適覚醒水準仮説)
Flow Theory(Csikszentmihalyi)
Active InferenceとExpected Free Energy最小化(Friston)
これらすべてが、「予測と現実のズレ(PE)が、適度な範囲にあるとき、人間は集中・学習・快の状態に入る」 という立場を支持している。だから「ゴールデンゾーン(最適帯域)」という喩えが成り立つ。ちなみにAIにも「最適なPEの値」があるという。強化学習や予測モデルの世界ではPE(予測誤差)は「学習シグナル」であり、それがゼロなら学習しないし、逆に誤差が巨大すぎると学習が不安定・非効率になる。そのため、多くのAIモデルでは、「PEが適度にある状態」を保つようにアルゴリズムが設計されている、つまりAIも、「ちょっとズレてる。でも修正可能」な状態をもっとも“おいしい”とするように作られている。たとえば:
探索と活用のバランス(exploration vs. exploitation)
活性化関数の飽和領域を避ける工夫
curriculum learning(簡単な問題から難しく)
などは、すべて「PEの最適ゾーン」を保つ工夫といえる。
もちろんAIは「これはおいしいPEだな」と“感じてはいないが、機能的には「おいしいPEを選んで食べている」ようにふるまっていることになる。つまりAIには情動や快・不快のクオリアはないけれど、学習効率が上がる、報酬期待が高まる、エラーが減少するというという指標に対して「選択的に反応」するので、結果的に“ごほうびっぽい行動”をとる。なるほどね。