2023年5月9日火曜日

連載エッセイ 3 推敲 1

 ディープラーニングとは?

前回始めたニューラルネットワークの話を続けよう。その始まりはローゼンブラットのパーセプトロンというモデルであったことは述べた。それはとてもシンプルな、入力層と隠れ層と出力層の一層ずつのサンドイッチのような形をし、各層はほんの数個の素子を含んでいるだけだった。私はそれを一種のあみだくじのような構造に例えたのだった。

しかしこれも前回で少し触れたが、それから半世紀あまりが経過する中で、それはみるみる進化して行った。それが現在ディープラーニングと呼ばれているものである。

ディープラーニング deep learning は日本語で「深層学習」と訳されているが、最近は特にこの言葉を耳にすることが多い。コンピューターの技術が発展して、いよいよ人間の脳に近い機能を備えたAIが出来つつあるが、それを支えている機能が、このディープラーニングだからだ。要するにニューラルネットワークの中で、入力層、隠れ層、出力層をどんどん複雑化して途方もなく巨大化したのが、このディープラーニングだと考えていただきたい。

最新のディープラーニングは隠れ層が1層どころか1000層もあり、素子も数千を数えるようになる。そして素子の間をつなぐ重み付け(パラメーター)は、何と億の単位に至る。昨年(2022年)10月にオープンAIがリリースしたGPT-3はパラメーターの数が1750億というのだから途方もない数である。そしてどうやらこのパラメーターの数がディープラーニングの性能をかなり大きく左右するということも分かってきたのだ。

このディープラーニングの計算速度はといえば、1秒当たり13.4兆回の計算ということだがもはやどのくらい速いのかピンと来ない。GPUGraphics Processing Unit)をふんだんに用いて途方もない値を示すのだが、普通のパソコンでソフトを動かすCPUに比べて、GPUは単純だが膨大な数の計算をこなすことが出来る。しかもそこに誤差逆伝播法や勾配降下法というプロセスを加えることで、その性能は飛躍的に伸びたとされる。この誤差後方伝播とは、入力層から出力層へという一方向の情報の流れではなく、誤差に関して出力側から入力側に反対方向にフィードバックを流していくという方式である。こうして2010年代からディープラーニングによる第三次ブームが飛躍的な形で始まったのだ。

しかしどれほど進化したとしても、ニューラルネットワークにおいて行われていることは基本的にはパーセプトロンの時代と変わりない。入力があり、隠れ層があり、そして出力が行われるのであるが、それは基本的には人の心や脳が行っていることと似ていると考えることができるだろう。ここで入力とは人の場合は外からの刺激であり、問いかけである。そして出力とは反射であり、運動であり、回答である。出力としては感情であるかも知れない。そしてそれは人の心の働きと似ている。

しかし人の場合は入力→出力と単純化できないような様々な動きをする。人は刺激がなくても自発的に行動を起こすし、そのインプットも五感を含めた様々な種類にわたる。出力も思考や感情や言語表現も含め、複雑多岐な反応を示す。もちろんそれを抑えて黙っていたり、仄めかしすることも自由自在だ。だからディープラーニングでいくら鍛え上げても、AIが人の心を持つなんてことはあり得ない・・・・・。これまではそれで議論はおおむね終わっていたのだ。

ところがこのような楽観論(悲観論ともいえるかもしれない)について考え直さなければならないことが現在起きている。いうまでもなくチャットGPTに代表されるような生成AIの出現である。つまりAIは突然人のようにふるまい始めている。数年前から囲碁や将棋では人間のプロの棋士ではとても太刀打ちできないほどの力を発揮するようになっていて、怪しいとは思っていたが、急にその日が到来してしまったのだ。

私はふと3年前の今頃を思い出す。2019年の春、世界には新型コロナという暗雲が立ち込め、それ以外の話題がかすんでしまっていた。そしてこの春、私たちはこの生成AIの突然の出現に期待とも恐怖ともつかない気持ちになっていようとは想像していなかった。