新春特別企画

人工知能技術のこれまでとこれから

この記事を読むのに必要な時間:およそ 3 分

あけましておめでとうございます。Preferred Infrastructureの海野と申します。このところ人工知能という言葉をよく聞くようになりました。名だたるIT関連企業が,こぞって人工知能をビジネス化しようとしているという印象をうけます。こうした背景には何があるのでしょうか。そして,本当に近い将来に人工知能による大きなビジネスが花開くのでしょうか。本稿では,ここ数年の技術開発のトレンドの変遷を通して,人工知能ビジネスの動向を探ります。

人工知能のこれまで

「人工知能」という言葉に対して,どのような印象を受けるでしょうか。人間と共存し,言葉をしゃべり,自分で思考するロボットのようなイメージを持つ方は少なくないと思います。もちろんこうした人工知能を見たことがないように,現状ではこうした人工知能はありません。このような汎用的な知能をもつ人工知能は「強いAI」とよばれ,より具体的な部分問題を解く「弱いAI」が今の主流となっています。

人工知能の研究は以前にも何度かブームがありました。特に1980~1990年台あたりに人工知能のブームがあり,強いAI実現が夢見られました。しかし,成功には至らず一気に下火になります。人工知能研究は,その後より具体的な問題にフォーカスする形で,つまり弱いAIをブラッシュアップする形で研究が進んできました。この中には機械学習など,あえて人工知能という言葉を使わずに各領域ごとに研究が進められたため,人工知能という言葉自体を聞くことも少なくなりました。

ここに来て再び人工知能というキーワードを度々目にするようになりました。何が起こったのでしょうか。実際のところ,急に注目が集まったため「わかりやすい」言葉として人工知能という言葉を再度使っているような印象はあります。機械学習や自然言語処理といった分野も,人工知能の一分野という見方ができますし,これらの技術は特にビッグデータ解析の技術として以前から取り上げられています。

では,なぜ急に注目をあびることとなったのか。1つには技術的な進歩があったこと。もう1つは,それに呼応するように各企業が力を入れ始め,大々的に報道されるようになったことが,理由として考えられます。メディアが取り上げるほど企業は力を入れ,力を入れるほどメディアも取り上げる,正のスパイラルが起こっているようにさえ感じます。本稿では主に技術的な側面を見ていきます。特に大きな進歩となっている深層学習という技術と,知能の処理に欠かせない自然言語処理のプロジェクトに関して見ていきます。

深層学習の流行

人工知能研究とその関連領域で,深層学習(Deep Learning)という技術が大きなブームとなっています。GoogleやFacebookといった企業がこの技術の研究開発に本格的に乗り出すと同時に,関係する研究者の引き抜きや,ベンチャー企業の買収のニュースが相次いだため,この言葉をご存じの方も多いでしょう。

まず,深層学習とは何でしょうか。一言でいえば,かつて流行した人工ニューラルネットワーク(以下,単にニューラルネット)という技術の再来です。ニューラルネットとは,脳細胞のネットワークを模倣した手法全般を指します。ただし,かつてできなかったレベルに大規模で深いネットワークを構成することで,他の手法群よりも劇的に精度の高い結果が得られた点が注目を浴びています。例えば画像認識の分野では,それまで26%程度だったエラー率が,深層学習の登場により一気に16%までエラー率を下げそれ以降も順調に更新し,昨年には7%を達成しました。また,音声認識の精度向上にも一役買っており,音声認識系サービスの裏ではすでに実用化されていると言われています。

ニューラルネットもかつて注目を浴びた技術です。どんな入出力の関数も表現できるという,表現力の高さが注目を集めました。では,なぜ一時期下火になったのでしょう。期待ほどの精度が出なかったこと,扱いにくかったからだと思われます。ニューラルネットは学習が難しく,よい精度を達成できないことが多かったのです。そのため,ポテンシャルがあるが学習が難しいというのが以前の見解でした。直後に現れたサポートベクトルマシンは扱いやすく,主役を取って代わられます。その後,機械学習研究の流行はトピックを転々としますが,ニューラルネットに再度注目が浴びるのはずっと後になります。

当時の研究者は見る目がなかったのでしょうか? 実際,筆者は今日に至るまで,「ニューラルネットは表現力が高い」という事実は知っていましたが,実用的ではなく,見向きもしませんでした。見る目がないと言われても仕方がありませんが,10年前ニューラルネットを推している人は周囲にほとんどいませんでした。また,必ずしも高い成果を出していたわけでもありません。例えば,自然言語処理の領域で,共通タスク形式で行われるCoNLLという学会の2003年のタスクでは,Long Short-Term Memoryという昨年最も流行した深層学習の種類の1つを使ったチームは,参加16チームの中で大差を付けられての圧倒的な最下位でした※1)。この状況で,10年後に爆発的な大流行を予想できる人はいたでしょうか?

では,なぜ急に最近になって成果を上げられるようになったのか。ひとつには,まず学習の速度がこの10年で劇的に向上したことでしょう。コンピュータの性能が10年で何倍にもなりました。それに加えて更に高速なGPUを用いるのが一般的になりましたし,これを複数台並べることも可能です。また学習手法自体にも進展があり,特に2000年台中頃から流行しているオンライン学習は,従来の学習手法より数十倍,数百倍も高速です。筆者が学生の頃に丸一日かかっていた学習が,今では数分で終わるようになりました。CPUの性能向上を差し引いても高速です。その他にも様々な理由が取り上げられますが,後に覆ったりしており,はっきりとした成功の原因はよくわかっていません。

現状では日に日に多くの領域で深層学習が適用されて,日夜研究が進んでいます。言語と画像にまたがった,領域横断的な研究も進んでいます。あまりにスピードが速いので,最新の情報は学会よりも研究者同士がSNS上でやりとりしています。1年の間にいくつも注目される手法が開発され,トレンドも移り変わっています。逆にこうした変化のスピードが早いことは,新規に参入しても追いつけるチャンスがあるのかもしれません。

※1
Erik F. Tjong, Kim Sang and Fien De Meulder. Introduction to the CoNLL-2003 Shared Task: Language-Independent Named Entity Recognition. in proc. of CoNLL 2003.

著者プロフィール

海野裕也(うんのゆうや)

(株)Preferred Infrastructure 知的情報処理事業部

2008年,東京大学大学院修士課程修了。同年,日本アイ・ビー・エム(株)入社,東京基礎研究所配属。2011年,(株)Preferred Infrastructure入社。自然言語処理や機械学習の研究開発,OSSの機械学習エンジンJubatusの開発に従事。2014年から自然言語処理研究者の若手で作る,NLP若手の会の共同委員長。

Twitter:@unnonouno

コメント

コメントの記入