新春特別企画

2020年のAIアシスタント

あけましておめでとうございます。よういちろうです。今年もよろしくお願いいたします。

皆さんのお宅には、スマートスピーカーやスマートディスプレイと呼ばれるデバイスはありますか? また、スマートフォンに対して日頃から「オッケー、グーグル」⁠アレクサ」⁠クローバ」と問いかけていますでしょうか? 筆者の感覚では、一昨年から昨年にかけて、AIアシスタントを利用している人々が着実に増えていきました。徐々に市民権を得てきているという実感はありますが、特に昨年は課題も多く見えた年となりました。

本記事では、2020年というオリンピックイヤーにおいて、AIアシスタントがどうなっていくのか、その見通しを紹介します。昨年の動向を踏まえながら、今年AIアシスタント関連でどういった動きが見られるか、予想してみたいと思います。

ここで取り上げるAIアシスタントは、日本においてプラットフォーム化をすでに遂げているGoogleアシスタント、Amazon Alexa、そしてLINE Clovaを対象とします。

より身近になったAIアシスタント

2014年にAmazonからAlexaが、2016年にGoogleからGoogleアシスタントが登場、そして2017年にLINEからClovaが発表されました。これらはAIアシスタントの代表格として特に日本において現在普及しているプロダクトたちです。すでにAIアシスタントが登場してから5年が経過しています。特に最近のコンピュータの進化において、5年間という時間は長い部類に入ると思います。この長い期間の中で、AIアシスタントは着実に市民権を得てきています。

AIアシスタントの登場当初は、スマートスピーカーという音声のみを取り扱うデバイスと共に登場したため、Voice User Interface(VUI)が注目されました。AIアシスタントにとってVUIが重要でありUI/UXの中心であることは今でも変わっていません。しかし、昨年はその状況に変化がありました。それは、スマートディスプレイの登場と普及です。

特に日本においては、スマートスピーカーよりも、画面付きのスマートディスプレイのほうが好まれている傾向がありました。例えば、昨年の7月に行われたMMD研究所のスマートウォッチとスマートスピーカーに関する調査の結果として、Google Home、Home miniやAmazon Echo(音声のみ対応)がシェア33〜35%だったのに対して、日本で発売されてから約1ヶ月のGoogle Nest Hub(スマートディスプレイ)のシェアが21.8%という高い割合でした。この結果からも、人々がスマートディスプレイに強い関心を持っていることがわかります。

これは、今までのコンピュータはすべて「画面に結果が表示される」形態でしたので、どうしても「要求したことがうまくいったかどうかを目で見て確認したい」というある種の慣れが作用した結果かと想像できます。

スマートディスプレイの売れ行きに比例して、AIアシスタント側も画面に対応する動きが昨年は加速しました。開発者は、画面に対応したスキルやアクションを開発できるようになりました。

  • Alexa - Displayテンプレート、Displayインタフェース、Alexa Presentation Language (APL)
  • Googleアシスタント - Interactive Canvas

Clovaについては自由にClova Desk向けの画面対応を行うことはまだできませんが、すでに画面対応したスキルがいくつか登場しています。また、⁠画面がある」という特徴は、

  • YouTubeといった動画を閲覧することができる
  • デジタルフォトフレームになる
  • ビデオチャットができる
  • ユーザが話したフレーズがどう認識されたか表示される

という安心感を提供できますので、スマートスピーカーよりも好まれています。

「VUI + 画面」というマルチモーダル(様々なデバイスに対応すること)への対応が昨年進みましたが、より多様なデバイスが今年は登場することが予想できます。実は昨年においても、その片鱗が登場してきていました。特に、スマートイヤホン(AIアシスタントを呼び出すことが可能なイヤホン)が数多く発売開始され、さらに発売の予告がありました。特に筆者は、Amazonが独自のスマートイヤホンEcho Budsを発表してきたことに驚きました。Echo Loop(指輪)やEcho Frames(メガネ)に関しても、Echo Budsと同様に「スマートスピーカーを身につけていつでもどこでもAIアシスタントを呼び出すためのデバイス」として発表されています。

Amazonが発表したスマートイヤホン「Echo Buds」
Amazonが発表したスマートイヤホン「Echo Buds」

日本でもAIアシスタントを起動可能なイヤホンやヘッドフォンがいくつか発売されていますが、残念ながら盛り上がりには欠けている状況と言えるでしょう。これは、日本人が公共の場では一人で何か話すことに躊躇する雰囲気があるからだと考えられます。海外の方々が日本の駅のホームでスマートフォンに何かを話しかけている姿を誰しもが見たことがあると思います。それは明らかに通話ではなく、旅行の思い出を自らの声で録音している姿だとわかるときがあります。

日本人も、いつか海外の方々のように、AIアシスタントをウェアラブルデバイスで呼び出して利用し始めるようになるでしょう。今年はそういった光景が徐々に増えてくるはずです。

ただ、いきなりウェアラブルデバイスが普及するのではなく、その前に別の変化が来ると考えられます。それは、⁠スマートフォンの使い方が変わる」ということです。

特にAndroidにおいては、ホーム画面に並んでいるアプリのアイコンをタップしてアプリ起動する操作は徐々に減っていき、その代わりに「Googleアシスタントを声で呼び出し、アプリ名を話してそのアプリを起動させる」といった使い方が推奨されていきます。さらに進むと、⁠アプリを起動する」という使い方から、⁠○○したい」といったフレーズを声でAIアシスタントに問いかけることで、適切なアプリが起動して希望を実現してくれる機能が動作する、という振る舞いに変わっていくことでしょう。

スマートフォンの使い方がそういった方法に変わっていくに連れて、そもそもスマートフォンという「持ち運ぶためには大きめのデバイス」を使い続けるよりも、もっと手軽なウェアラブルデバイスを利用したほうが利便性が高くなっていくタイミングが来るはずです。その結果として、現在誰しもが利用しているスマートフォンのシェアは減っていくことになります。今年は、ユーザが利用しているデバイスの変化の兆しがはっきりと多くの方々に認識される年になりそうです。

AIアシスタントにより加速するスマートホーム化

「AIアシスタントを使ってできることが少ない」という声をよく聞きます。たしかに、現時点ではキラーアプリと呼ばれる「誰しもがデバイスを買う理由になる」ようなサービスがAIアシスタントにはいまだに登場していません。その中でも、AIアシスタントによって提供され、徐々に利用者が増えている分野があります。それは「スマートホーム」です。

部屋の照明やテレビ、エアコンなど、家電製品を操作するためには、以下のような方法が主流でした。

  • リモコンで操作する
  • 家電製品自体に付いているボタンを押して操作する

つまり、今までは手を使って操作をしていたことになります。近くにリモコンがなければ、または近くに製品がなければ、操作するために人間が動かなければなりません。誰しもがSF映画で登場する「声で操作」したいと思ったことはあるでしょう。⁠適当に操作したいことを言えば、その通りに家電製品が動いてくれる」ということは、長年の人類の夢でした。

この「適当に言われたこと」から意図を正しく解釈することが、今まで困難なことでした。NLP(Natural Language Processing = 自然言語処理)の発達によってAIアシスタントが実現し、そしてAIアシスタントが人々からの「曖昧な表現」から意図を理解できるようになったことが、家電操作を声で自然に行うことを現実にしました。

AIアシスタント経由でなくとも、例えばアイリスオーヤマから声で操作可能なシーリングライトが発売されています。このように、声で家電を操作するという体験の提供は、今年ますます加速すると考えて良いでしょう。

アイリスオーヤマから発売されているECOHiLUX(エコハイルクス)は声でシーリングライトを操作可能
アイリスオーヤマから発売されているECOHiLUX(エコハイルクス)は声でシーリングライトを操作可能

今までのコンピュータを操作する際の目的は「情報を得て操作すること」が中心でした。今後はAIアシスタントに対して「家電を操作すること」がコンピューティング環境において増えていきます。コンピュータと言えば「パソコン」を想像するように、比較的大きめの機械を想像してきたと思いますが、スマートホーム化が進むことで、コンピュータと聞いてイメージする機械は、もっと多様化することになります。つまり、⁠パソコン」「スマートフォン」に代表される「The コンピュータ」を操作するのではなく、もっと低性能で単一のこと(明かりをともす、部屋の温度を上げる、など)しか実現しない家電製品がコンピュータとなり、それを人間が声で操作する、ということが「コンピュータを利用する」ことを意味するように変化するのです。

この流れは、AIアシスタントがいくら賢くなろうとも、操作対象のデバイスが増えなければ実現しません。数年前からIoT(Internet of Things = モノのインターネット)という言葉を聞くようになりました。日本において数年前に「ソーシャルゲームがクラウドコンピューティングの流れを決定づけた」ように、⁠AIアシスタントがIoTの流れを決定づけた」と今年末に誰しもが認識することになるでしょう。様々な家電メーカーや、今までIoTに取り組んできた企業や個人が、AIアシスタントから操作可能なコネクティッドデバイスの開発を活発に行い、今年は様々な「今まで見たこともない」家電製品を目にすることも増えると予想できます。

そういった企業や個人が盛んにスマートホーム市場に参入することで、日本において今年は「カオスな状況」に一旦陥ることが予想できます。特に家電製品の分野で一定のシェアをすでに獲得しているメーカーは、自社の製品でユーザを囲い込むべく、独自の仕様で製品を構成してくることでしょう。その結果、ユーザは自由に製品を選択できず、なかなかブームが起きないこともあり得ます。今まで市民権を得てきたものはすべてオープン性を持ったモノでしたが、それを目指すことなく残念な状況に陥りやすい日本の現状が昨今続いています。

この状況は、海外の主要プレーヤーが打開することが期待されています。昨年末に、Amazon、Apple、Google、そしてZigbee Allianceは、新しいワーキンググループを発足させました。

このワーキンググループでは、セキュリティを重視した上で、スマートホーム対応製品間での互換性を高めるための、新しいロイヤリティフリーの接続規格を策定し促進することを目指しています。このワーキンググループからの成果によって、ユーザはどのスマートホーム対応製品を買ったとしても、そしてどのAIアシスタントからも、何も考えずにホームネットワークにつなぐことができ、そして特別な設定をすることなくすぐに使い始められるようになります。オープン性があり、将来的にはこの規格に沿っていることが市場参入の条件となるでしょう。

今年はそういった業界標準が策定され、そして今年の末以降はその業界標準に対応したスマートホーム家電を日本のメーカーも採用を検討あるいは実際に採用した製品を目にすることになるでしょう。

変化する人間とAIアシスタントとの会話

さて、AIアシスタントを多くのユーザが利用し始めて数年が経過していますが、昨年までは「ユーザが必要なときにAIアシスタントに何かをお願いする」という利用方法でした。つまり、人間がAIアシスタントに話しかけていたことになります。一部の通知機能を除いては、AIアシスタントからユーザに話しかけることはありませんでした。何かをお願いしたいときに話しかける相棒、という立ち位置だったかと思います。

しかし、今年はその構図が逆転した体験をする方々が徐々に増えていきます。AIアシスタントから話しかけられる人々が増えてくるのです。しかも、自然な音声での会話を使って、です。突然電話がかかってきて、機械音でアンケートへの回答を求められ、プッシュホンで番号を打たされる、そういう体験ではなく、⁠あたかも人間からのように話しかけられて、人間相手と同じように声で返答する会話」をAIアシスタント相手に経験する、ということです。

米国では、Googleアシスタントの機能である「Duplex」が昨年4月の時点で、47州で利用可能となっています。これは、レストランなどの予約を行うための電話をユーザに変わってGoogleアシスタントがかけてくれるサービスです。つまり、予約を受け付ける店舗側の人間にとっては、人間ではなくAIアシスタントが電話をかけてくる、つまりAIアシスタントからの電話で会話しなければならないということになります。

また、日本においても、昨年LINEがAiCallというサービスの実験を始めました。これはGoogleのDuplexとは逆であり、予約を行いたいユーザからの電話に対して、AIアシスタントが応答して予約を受け付けるサービスとなります。AIアシスタントにユーザから話しかける、という構図は今までと同じですが、このサービスの場合は店舗と通話を開始したあとは、おそらくAIアシスタントが会話をリードしていくはずです。

AI電話応対サービス「LINE AiCall⁠⁠、本日より実用化に向けた実証実験を「俺のGrill&Bakery大手町」にて開始

AI電話応対サービス「LINE AiCall」、本日より実用化に向けた実証実験を「俺のGril

スマートスピーカーやスマートディスプレイなどのデバイスを経由したユーザとAIアシスタントとの会話では、ある程度ユーザ側がAIアシスタントが理解しやすいだろうと思われる「普段とは違う話し方」をすることが多いかと思います。しかし、電話で会話となると、人間同士の会話に近しい会話レベルが求められるでしょう。DuplexもAiCallも、おそらく妥当な会話レベルを実現する目処が立ったので実証実験を始めていることと想像できます。

今年は、AIアシスタントと「電話で会話する」ことを体感した人々が徐々に増えていく年になりそうです。この体験によって、人々が抱くAIアシスタントの印象は、また違ったものになると考えられます。電話だけでなく、店舗に行った際にロボットやその他の装置と会話する機会も増えるかもしれません。AIアシスタントは、より身近な存在となり、思いもよらない場所でAIアシスタントと関わることになる人々が増えてきてニュースになることが期待されます。

AIアシスタントプラットフォームの進化の方向性

Alexa、Googleアシスタント、そしてClovaは、どれもAIアシスタントの機能を多くの開発者が自由に拡張できるようになっています。つまり、プラットフォーム化されているということです。プラットフォームが提供する機能によって、開発者が開発可能なスキルやアクションの幅が決まってきます。昨年までは、どのプラットフォームに関しても、多くの一般ユーザ向けのスキルやアクションを開発できる機能セットが提供されてきました。

今年もB2Cがスキルやアクション開発の中心となることは確実です。多くの開発者が、キラーアプリを生み出すべく、様々なアイディアを形にしてユーザに提供することでしょう。その中には、認証や決済といったビジネスにおいて必要な要素を正しく組み込んだスキルやアクションが、昨年よりも今年は数多く公開されることと想像できます。

最初に紹介したとおり、今年はAIアシスタントを利用するためのデバイスが多様になることが考えられます。その際に、同じAIアシスタントを呼び出すことができるとしても、デバイスの特性によって「実現できることと実現できないこと」が出てきます。最も簡単な例としては、⁠画面があれば視覚的に情報を提供できるが、スマートスピーカーでは画面がないので視覚的に情報を表現できない」という差があります。音声のみ扱うことが可能なスマートスピーカーとスマートイヤホンとでも、⁠第3者に聞かれてしまう可能性があるかどうか」という差があります。

デバイスの多様性に合わせたスキルやアクションを開発するために、AIアシスタントのプラットフォームが提供する機能も今後マルチモーダル対応としてよりリッチな機能が提供されるでしょう。これにより、ユーザは多様なデバイスにてAIアシスタントの最適な利用ができるようになりますし、セキュリティやプライバシーの問題すらも解決されることが期待できます。

そして、B2Cだけでなく、AIアシスタントはB2Bをも今年は視野に入れてくるはずです。昨年までも、企業内でのAIアシスタントの活用のニーズは至るところで叫ばれてきましたが、残念ながらどのAIアシスタントも本格的なB2Bのサポートには至りませんでした。AIアシスタントが企業内で存在感を出すことができることはほぼ確実であり、多くの人が期待していると思います。

今年は、B2BでのAIアシスタントの活用について、いろいろな実験が始まり、最適な企業内利用が模索されることと想像できます。そして、人々の業務のサポートをも、AIアシスタントが担っている状況を見ることができるのではないか、と期待します。仕事においても、そしてプライベートにおいても、AIアシスタントがどちらも活躍することができれば、もう人類はAIアシスタントがなかった昔を思い出せないようになるはずです。

まとめ

今年のAIアシスタントの動向について、以下の4点を紹介してみました。

  • AIアシスタントは、多様なデバイスが登場することで、より身近な存在となっていく。
  • AIアシスタントによって、スマートホームの普及は加速し、IoT市場がより活性化する。
  • AIアシスタントと人間との関係は、電話による会話を起点として、今までよりもより人間同士の会話に近づいていく。
  • AIアシスタントプラットフォームは、デバイスの多様化をサポートし、そしてB2Bをもカバーする進化を見せる。

昨年はAIアシスタントの市場はさほど大きな進化を見せませんでしたが、その分今年はいろいろな進化を期待できる年となりそうです。

おすすめ記事

記事・ニュース一覧