新春特別企画

2021年のAIアシスタント

この記事を読むのに必要な時間:およそ 4 分

スマートフォンによるAIアシスタントの再出発

冒頭で「様々なことが止まってしまった昨年」と紹介しました。大きな新商品発表イベントを各社が控えていたために,昨年があまり大きな動きがなかった印象を持っている方が多いと思います。しかし,AIアシスタントに関しては,着実に改善が進んでいますし,新規機能のリリースも多くありました。その内容を注意深く振り返ってみると,AIアシスタントは「大きな分岐点」に差し掛かっていることがわかります。

その要因として取り上げるべきものとしては,以下の2つがあります。

  • スマートディスプレイ対応
  • スマートフォン対応

AmazonもGoogleも,最初こそスピーカーとマイクのみを搭載した「音声のみを扱うデバイス」を発売し,声のみでサービスを利用する「Voice User Interface(VUI⁠⁠」を押し出してきました。しかし,VUIのみで利用可能なサービスは,日常生活の中でちょっとしたことを行う場面ではとても役に立つ反面,キラーアプリはいまだに登場していません。特にマネタイズに成功している事例は皆無です。

その後,AmazonからEcho Showが,GoogleからNest Hubがそれぞれ発売されます。これらは,液晶画面を持ち,声で操作するだけでなく,画面にタッチして操作し,そして画面上に様々な情報が表示される,つまり「視覚」も利用するデバイスとして登場しました。これらのスマートディスプレイから提供される情報量は,当然スマートスピーカーよりも多くなります。また,音声認識の結果が画面に表示されることでユーザーが安心してVUI操作ができるようになる効果もあります。

スキルやアクションの開発者は,以下のテクニックを使って,画面にコンテンツを表示してVUIを補う視覚的機能を開発できます。

スマートディスプレイが従来のタブレットのようにならずに「VUIデバイスであること」を維持するため,各社それぞれスマートディスプレイ対応のスキルやアクションの開発に対して制限をかけています。例えばGoogleではゲームや教育向けのアクションのみ審査を通過できます。

スマートディスプレイに加えて,Googleから2018年にApp Actionsという新しい機能の提供がアナウンスされていました。App Actionsは,Googleアシスタントに話しかけることで,Androidアプリが提供する各種機能を直接呼び出すことができる画期的な機能です。

App Actionsの例。Fit Actionsアプリに「走り始めるよ」とGoogleアシスタント上で話しかけることで,Fit Actionsアプリの機能がDeep Linkにより直接実行される。

App Actionsの例

App Actionsの登場から昨年の中盤にかけて,特定のAndroidアプリ開発ベンダーによってApp Actionsの組み込みが行われ,様々な検証が行われてきました。そして,10月9日に行われたAssistant Developer Dayイベントにて,すべてのAndroidアプリに対してApp Actionsの利用が許可されたことがアナウンスされました。

App Actionsの登場により,⁠スマートフォンを声で利用する」という新しい使い方が提唱されたことになります。そして,昨年はその環境が整った年になったということができるでしょう。

人類には早かった「音声のみのデバイス」

スマートディスプレイやスマートフォンへのAIアシスタントの対応は,やはり「視覚的な情報は重要であり有用である」ことをAIアシスタント提供ベンダーが認めたことになると筆者は考えています。

つまり,先行して発売され現在に至るまで普及してきた「スマートスピーカー」という音声のみを扱うデバイスでは,イノベーションを起こし多くのユーザーの行動を変えられるだけの能力を持ったサービスが生み出されなかったということです。そして,音声のみでのサービス展開に固執するのではなく,ユーザーは徐々にVUIに慣れていくといった段階が必要だったことを意味しているのではないかと考えています。

GUIと違い,VUIには「操作対象が目に見えない」という決定的な違いがあります。見えないものをどう使うか,ユーザーは想像できません。また,情報は「ひと目で見てわかる」ものであれば,長々と説明されずに「見せてもらえれば良い」わけです。特に今までが「GUIが当たり前」でしたので,いきなり画面を失ってしまっては,多くのユーザーが困惑してしまうのも当然であることがやっと理解できた,というのが昨年のタイミングだったのかなと思っています。

スマートフォンを通じてVUIを学習する

今年は,多くのAndroidアプリ開発者がVUIに向き合う年になると考えられます。つまり,Androidアプリ開発者は,今までインテントや自らが開発したGUI上でしか呼び出されなかった機能を「声でも呼び出せるようにしていく」ことが求められます。

多くのAndroidアプリがApp Actions対応を遂げていくに連れて,Androidデバイスを使う際の「操作方法」が,指ではなく声でも可能になっていきます。先ほどの「見えないものは操作できない」というVUIの欠点は,App Actionsにおいては「GUIにて利用経験のある機能を声で呼び出す」ことになるため,障壁にはなりません。⁠○○と話しかければ,あの機能が呼び出される」とユーザーは明確に何が起きるか把握できるため,安心して声で話しかけ始めると想像できるわけです。

主要なAndroidアプリがApp Actions対応を遂げることで,例えばテレビCMでも「○○アプリから○○をしてみよう」ではなく「Googleアシスタントに○○と話しかけよう」というプロモーションも出てくると思います。結果として,ユーザーはスマートフォンの利用方法が変化していくに連れて,VUIへの印象も変化していき,遂には今年は「VUIの方が楽だよね」という状況になっていくのではないかと期待できます。

また,AppleのiOSで提供されているSiriについても,すでにアプリの機能を声で呼び出すことを可能にするSiriショートカット機能があります。Siriショートカットの利用促進により,Androidだけでなく,iPhoneにおいても声で操作することが多くなっていくことでしょう。

スマートフォンを声で操作するようになれば,スマートスピーカーやスマートイヤホンなどのデバイスを今まで以上に使いこなせるようになります。そして,その状況を前提としたサービス構築も増えていきます。今年は,本当の意味で多くの人々がVUIに触れ,そして慣れていく年になるのではないかと予想できます。

まとめ

大きく生活が変化した中でも,AIアシスタントは進化を続けています。そして,次のコンピューティング環境として名乗りを上げているVUIは,模索が続いた昨年までから,今年は真の意味で人々に使われていくことになります。それは,新しいデバイスを買わずとも,皆さんの手にあるスマートフォンから始まっていきます。

生活が変化すれば,便利な道具も変わります。その変化は悪いことだけではなく,良いことももたらしてくれるはずです。AIアシスタントはその代表例として,今年大きく飛躍し,多くの人に使われ,インターネットを変えていくための原動力になっていくはずです。

その変化を,今年は皆さんと共に楽しみたいと思います。

著者プロフィール

田中洋一郎(たなかよういちろう)

1975年2月生まれ。Tably株式会社所属。業務アプリ向けの開発ツールやフレームワークの設計に携わった後,mixi Platform,LINE Platformの技術統括を行う。日本でのソーシャルアプリケーションの技術的な基礎を確立しただけでなく,メッセージングアプリにおいても世界に先駆けてBOT Platformの立ち上げを主導した。その後もプラットフォームのさらなる進化に日々チャレンジしている。趣味で開発しているChromebook向けアプリは,Google Open Source Programs Officeから評価を得ている。Google Developers Expert(Assistant, Web Technology担当)。Mash up Award 3rd 3部門同時受賞。著書『OpenSocial入門』,『開発者のためのChromeガイドブック』,『ソーシャルアプリプラットフォーム構築技法』。