2023年5月13日土曜日

連載エッセイ 3 推敲の推敲 1

 最近GTP-4が出てきてよく分からなくなってきた。少し前に書いたことはあっという間に古くなっていくようだ。

ディープラーニングとは?

 前回始めたニューラルネットワークの話を続けよう。その始まりはローゼンブラットのパーセプトロンというモデルであったことは述べた。それはとてもシンプルな、入力層と隠れ層と出力層の一層ずつのサンドイッチのような形をし、各層はほんの数個の素子を含んでいるだけだった。私はそれを一種のあみだくじのような構造に例えたのだった。

しかしこれも前回で少し触れたが、それから半世紀あまりが経過する中で、それはみるみる進化して行った。それが現在「ディープラーニング」と呼ばれているものである。

ディープラーニング deep learning は日本語では「深層学習」とも訳されているが、最近はそのままの形で耳にすることが多い。コンピューターの技術が発展して、いよいよ人間の脳に近い機能を備えたAIが出来つつあるが、それを支えている中心的な機能が、このディープラーニングだからだ。要するにニューラルネットワークの中で、入力層、隠れ層、出力層がどんどん複雑化して途方もなく巨大化したのが、このディープラーニングだと考えていただきたい。

最新のディープラーニングは隠れ層が1層どころか1000層もあり、素子も数千を数えるようになる。そして素子の間をつなぐ重み付け(パラメーター)は、何と億の単位に至る。昨年(2022年)11月にオープンAIがリリースしたGPT-3はパラメーターの数が1750億というのだから途方もない数である。(今年3月にリリースされたGPTは、非公開だが噂では兆単位だという…。)そしてどうやらこのパラメーターの数がディープラーニングの性能をかなり大きく左右するということも分かってきたのだ。

このディープラーニングの計算速度はGPUGraphics Processing Unit)をふんだんに用いた結果途方もない値を示すのだが、GPUは普通のパソコンでソフトを動かすCPUに比べて、単純だが膨大な数の計算をこなすことが出来るのが強みであるという。しかもそこに誤差逆伝播法や勾配降下法というプロセスを加えることで、その性能は飛躍的に伸びたとされる。この誤差逆伝播とは、入力層から出力層へという一方向の情報の流れではなく、誤差に関して出力側から入力側に反対方向にフィードバックを流していくという方式である。こうして2010年代からディープラーニングによる第三次ブームが飛躍的な形で始まったのだ。

しかしどれほど進化したとしても、ニューラルネットワークで行われていることは基本的にはパーセプトロンの時代と変わりない。入力があり、隠れ層があり、そして出力が行われる。そして出力の誤差を縮小するようにパラメーターを調整していくのだ。そしてそれは基本的には人の心や脳が行っていることと似ていると考えることができるだろう。ここで入力とは人の場合は外からの刺激であり、問いかけである。そして出力とは反射であり、運動であり、そしてAIではまだ不可能とされる感情を含む。

しかし人の場合は入力→出力と単純化できないような様々な動きをすると考える人も多いだろう。人は刺激がなくても自発的に行動を起こすし、そのインプットも五感を含めた様々な種類にわたる。出力も思考や感情や言語表現も含め、複雑多岐な反応を示す。もちろんそれをあえて「出力」せずに黙っていたり、仄めかしすることも自由自在だ。だからディープラーニングでいくら鍛え上げても、AIが人のような心を持つなんてことはあり得ない・・・・・。これまではそれで議論はおおむね終わっていたのだ。