いつの間にか6月末となり、激動の2020年も半分が過ぎてしまいました。新型コロナ騒動で社会が混乱している間も季節は確実に進み、実家周辺の水田には植えられたばかりの稲が風にそよいでいます。
梅雨の雨に降り込められている今日このごろ、今回は少し趣向を変えて、「人工知能」について思うことを綴ってみましょう。
思考機械としての人工知能
筆者が学生だった80年代後半から90年代にかけては、「人工知能」というと「推論エンジン」でした。「推論エンジン」というのは、「AならばBである。BならばCである。ゆえにAならばCである。」といった推論を大規模かつ高速に行なうことで、直接の関連は無さそうな事象から将来を予測したり、それらの背後にある因果関係を推測し、トラブルの原因を特定するような機能です。
筆者自身はコンピュータ科学を専攻していたわけではなく、外部から野次馬的に眺めていただけに過ぎないものの、論理記述に適したProlog言語の奇妙な記述方法やそれをMS-DOSで動かしたProlog-KABA、並列推論システムを開発しようとした「新世代コンピュータ開発機構(ICOT)」の活動は、当時触れ初めたUNIXやインターネット(JUNET)と共に、印象深く記憶しています。
この「推論エンジン」型の人工知能は、何人もの専門家から知識を聞き取り、「AならばB、BならばC」という膨大な知識ルールを組み込んだ「エキスパート・システム」として実用化されました。
この「エキスパート・システム」は、現在でも広く利用されてはいるものの、特定分野の問題解決にしか利用できないため、汎用的な「知能」とは言い難く、次第にこの方向での「人工知能」研究は下火になっていきました。
「エキスパート・システム」型の人工知能に代わって、21世紀になって注目されてきたのがニューラルネットワークを用いたディープラーニング型の人工知能です。
詳細については優れた解説書に譲ることにして(苦笑)、筆者が理解しているところを述べると、このタイプの人工知能は「パターンマッチ」型と言えるでしょう。
たとえば「犬」の画像を大小さまざまに分割して入力信号とし、脳細胞(ニューロン)の構造を模したネットワークのそれぞれのノードがそれらの入力信号に反応するように教育しておき、新たに与えられた画像に対して各ノードがどのように判断するかを集計して、その画像が「犬」か否かを判定する、さらには「猫」や「牛」「馬」といった画像も教育しておけば、新しい画像が過去に学習した何に一番近いかを判定できる、現代の人工知能は、このような「パターンマッチ」に基づいて、画像や音声を認識し、車の自動運転や言語間の自動翻訳などを実現しています。
「人工知能」が、かっての「推論エンジン」型から「パターンマッチ」型へ変化してきた背景には、コンピュータの演算能力の進化があることは言うまでもありません。
ニューラルネットワークの基本的なアイデアは古くから存在するものの、精度を高めるためにはノードや中間層の数を増やす必要があり、そのためには膨大なコンピュータ資源が必要となります。
一方、90年代以降のコンピュータ技術の発展は、ムーアの法則に代表されるハードウェアの進歩と、Linuxに代表されるフリーに使えるソフトウェアの普及により、多数のコンピュータを結合したクラスター化が進み、文字通り、ケタ違いのコンピュータ資源が利用可能になりました。
「ディープラーニング」と呼ばれる人工知能は、まさにこのクラスターシステムの上に、膨大な数のノードと何十階層におよぶ中間層を構築したニューラルネットワークです。
「知能」に対する問いかけ
一方、この過程において「人工知能」に対する研究者の意識も変ってきたように思います。というのも、かってはデカルトの「我思う、故に我在り」やパスカルの「人間は考える葦である」に見られるように、「考える」ことが人間にとって最も重要な行為であり、「考える」とはアリストテレス以来の論理学の方法に従って推論することである、と思われていました。
この概念は近代科学の基盤であり、コンピュータを動かすソフトウェアも「もし(if)…ならば(then)…」という論理の固まりです。この方向から「人工知能」を作ろうとすると、高性能な「推論エンジン」に至るのは必然でしょう。
一方、自分自身の行動を省みると、朝目覚めて、顔を洗い、朝ごはんを食べて出勤する、という一連の行動の中に、「もし…ならば…」的に考えて行なっている行為はどれくらいあるでしょう? 通常、日常生活の中での行動は、周囲の状況を元に論理的に推論した結果ではなく、「以前からこうしていたから」「前はこれでうまく行ったから」的な経験で行っていることがほとんどです。
フロイトやユングの提唱した「無意識」の心理学も、人間の「こころ」の中で「意識」が占めるのは氷山の一角に過ぎず、多くの行動は「意識」よりも「無意識」に由来することを明らかにしました。
また、近代科学においても、80年代から90年代にかけては、「カオス」や「フラクタル」といった複雑系の現象が注目され、「もし…ならば…」といった論理だけでは、実際の現象を理解できないと考えられるようになりました。
「人工知能」が「推論エンジン」型から「パターンマッチ」型に変ってきたのも、このような流れと軌を一にしているように感じます。事実、「パターンマッチ」型の「人工知能」に「なぜこの画像を『猫』と判断したのか」と問うても、「全身が毛に覆われていて耳が尖り、身体が丸く…」といった判断基準を述べることはできず、「過去の学習結果にもとづくと『猫』と判定される」と答えるしか無いそうです。
このあたりは人間も同じで、「猫」の画像を「猫」と認識するのは、その姿形の特徴からの推論ではなく、過去の膨大な経験に基づく無意識的なパターンマッチでしょう。
こう考えると、「意識」レベルを模倣する「推論エンジン」から、「無意識」レベルの「パターンマッチ」へ進化することで、「人工知能」はより人間に近づいてきた、と言えそうです。さて、ではこの先、進化し続けていく「人工知能」は、人間同様に「こころ」を持つようになるのでしょうか?
「人工知能」のよしあしを判断するために、英国の科学者アラン・チューリングは「チューリング・テスト」を考案しました。
このテストは、「優れた人工知能は人間と見分けがつかなくなる」という仮定から、審査員がネットワーク越しにやりとりしている相手を、その対話を元に人間かコンピュータかを判断する、というものです。
「チューリング・テスト」にはさまざまな批判もあるものの、「人間らしさ」とは何かを考えさせるきっかけとなりました。
一方、昨今のコミュニケーション事情を考えると、文章にならない単語だけのやりとりや、単語すら使わないスタンプだけのやりとりなど、「チューリング・テスト」にパスできそうにない対話が目立ちます。
また、脊髄反射的な罵詈雑言や同じ文言を繰り返し書き連ねる「ネットいじめ」も深刻な問題になっています。いわゆる「ボット(bot)」のように、本来、こういう単純で機械的な応答こそがコンピュータの得意分野でした。
そう考えると、「人工知能」がますます人間に近づく一方で、人間はどんどん「天然無脳」化していて、機械が人間を超えるという「シンギュラリティ」も案外すでに起っているような気がしています。