2020年6月23日火曜日

新無意識 書き直し 2


1.ニューラルネットワークモデル

前世紀、つまり1900年代の半ばから、脳の仕組みをコンピューターモデルを用いて解明しようという動きがあり、いろいろなモデルが提出されたという経緯がある。それがニューラルネットワーク理論の始まりだ。そしてその中で1957年にローゼンブラットという人が提唱したパーセプトロンの概念が有名だ。その当時からコンピューターは単純な処理ならそれを高速で行い、その能力は人間のそれを遥かにしのくことはよく知られていた。しかしアナログな仕事、例えば手書きの文字入力を認識したり、物体を認識したりという仕事はコンピューターにとって非常に苦手であり、それが人間の能力との決定的な違いだったのである。そのためにローゼンブラットはパーセプトロンという概念を作り上げた。

                   (図20-7

 ここに私自身で絵を描いてみた(図20-7
。まず入力層があって、出力層があって、hidden layer, つまり隠れ層がある。そうするとある信号、例えば図に示した緑色のアイコンが入力された時に、これが「優先席」を表すものだという判断が下せるようになるために、そこに至る経路に重みづけをしていく。つまりその経路を太く、強化することになる。同じような事を様々な刺激に対して学習していく。またたとえば耳がちょっと大きくて、目が二つあって、ひげが生えていたら猫だというふうにパターン認識ができるようになるわけだ。このパーセプトロンの議論は一時はかなり流行したが、その後勢いがなくなっていた。しかし最近になり、ディープラーニングという進化系が登場し、アルファー碁やディープラーニングの活躍でまた脚光を浴びるようになったのである。
 最近のニューラルネットワーク理論の活況は、ディープラーニングの性能が飛躍的に進歩したためである。そこにはいろいろな要素が絡んでいるが、一つにはいわゆるバックプロパゲーション(誤差逆伝播法)という概念の貢献がある。すなわち情報を入力から出力へと一方向で行うだけでなく、出力から入力へという逆方向のフィードバックを行うという考え方である。
さてディープラーニングについては、以下のような解説を引用しよう。
「ディープラーニングはいわばニューラルネットワークの進化系である。ディープラーニング以前の機械学習やニューラルネットの分野では,人手による特徴量の設計が必要だった。しかし,ディープラーニングは大量のデータからその特徴量を自動で抽出し学習するといった機構を持つ.」
「ディープラーニングはニューラルネットの一分野であり,おそらくその厳密な定義はない.一般的にはニューラルネットの層を4層以上に深くしたものを深層学習(ディープラーニングDeepLearning)と呼ぶ風潮らしい.また,特徴量を自動で獲得させよう,つまり文章や画像や音声などのデータをそのまま与えて回帰や分類を行おうとさせるのがディープラーニングの特徴である.」
 ちなみにニューラルネットワークが大脳皮質の構造に対応することになるが、大脳皮質の場合、6つの層があり、それぞれが膨大な数の神経細胞により構成しているため、この隠れ層とは途方もなく分厚い層ということになる。そして脳の場合は下から情報が流れてきて、中間層である隠れ層でさまざまな情報処理が行われ、その一部が上部の出力層へと移る時点で上述の重み付けを行う。ただし脳の場合、大部分の情報は上まで登らずに降りてきてしまうという。つまり私たちの感覚器を伝わって入ってくる知覚入力、感覚入力は大脳皮質に入ってもたいがいは意識に上らずに棄却されてしまう。それは私たちの通常の体験においてはたいていのものが新しい情報ではないからであり、そのためにスルーされてしまうということによる。つまりいつも通りの出来事に関する記憶は、どんどん無意識的に処理されていくわけであるが、これはフロイト的な無意識に関する理解とは異なる新しい考え方と言っていいだろう。
 さて情報処理に係る部位としては、小脳皮質もある。こちらの場合には3層からなり、その構造はおおむね画一的で、実はコンピューターにそっくりだと言われている。我々の脳の中で一番計算をしてもらっているのが小脳であって、そこでは運動の熟達みたいなことに関係していると言われていた。しかし、実はそれ以外の精神的、認知的な事柄についても熟達して慣れて自動化していくというプロセスにおいて小脳は非常に大きな意味をもっているということで最近注目されている。
 脳科学者 Jeff Hawkins2004)の「考える脳、考えるコンピューター」(ランダムハウス講談社、2015年)という本には、ニューラルネットワーク的な大脳皮質の働きが雄弁に説明されている。それによれば、大脳皮質に入ってきた情報は自動的に処理されていき、感覚入力を処理する際に、予測と異なる情報だけが上位に伝わる。例えば通勤途中に、街角の交差点で一台の車が黄色から赤信号に変わるタイミングに差し掛かって急に停止し、歩行者がそれにびっくりする仕草をしたというシーンを見ても、それは見慣れたシーンでしかなく、ほとんど見過ごされて忘れ去られていく。ところが、その車が急ブレーキをかけたにもかかわらず、歩行者に接触して、その歩行者が怒鳴った怪我をさせてしまったとしたら、それは予想外のこと、驚くべきこととして上位に伝わる。この最後に脳のどの部位に至るかというと、記憶を司る場である海馬なのだ。つまり大脳皮質の最上位の情報は海馬に流れていき、そこで記銘されるのだ。今本書の読者に、一年前に自宅から職場までの間に起きたことを思い出してくださいと言っても全く不可能であろう。ところが一年前のある日の通勤中に、横断歩道で誰かが倒れているのに遭遇したのであれば、その日のことはおそらくかなり明瞭に記憶に残っているはずだ。また大脳の最上位には扁桃核も位置していることになる。予想外のことが起きてびっくりしたり怖かったりしたら、それは同時に扁桃核をも興奮させ、その感情部分も記憶に残る。
 すこしニューラルネットワークの説明をするならば、入力層と出力層があり、その間に膨大な層が存在する。ニューラルネットワークでは、入力層に入ったインプットと出力層から出るアウトプットが正解に近いように、中のネットワークの重みづけが変更されて行き、正解に近づけることが出来る。そして大脳皮質もおそらく類似した構造であろうという説明をした。ではこの場合何がインプットであり、何がアウトプットだろうか? たとえば赤ん坊が目の前のもの、たとえば哺乳瓶を捉えようとする。視覚的な情報がインプットだ。そしてアウトプットは自分の手の動き(手の運動を司る筋肉運動)ということになる。もし哺乳瓶に向かって手を伸ばさずに、たとえば右側に行きすぎると、そのアプトプットは誤り、あるいはやや誤りと判断される。そしてそれを繰り返すうちに、哺乳瓶の視覚情報は、確実にそれを捉えることが出来るような手の動きを指示する出力を行うことが出来る。すると赤ん坊はこの運動に熟達するにつれて、もう哺乳瓶を見て手を伸ばすという運動を、「考えずに」出来るようになる。当たり前になり、ルーチン化した運動はもう精神的なエネルギーを用いることはない。そして脳は、まだ新しくて、それに慣れていない体験について、それを記憶し、それに対するエネルギーを注ぐだろう。そしてここに先ほどの海馬、扁桃核が関与してくる。それはある意味では大脳皮質というディープラーニングシステムを使いこなす、さらに上位の中枢の存在を示しているであろう。つまり人間の大脳は、単なるディープラーニングを行うのではなく、それをより効率よく行うような仕組みを備えていることになる。