Android Weekly Topics

Android 16 QPR2でAIアシスタントがアプリを実行する

今後登場予定のAndroid 16 QPR2で、アプリが持つ主要機能をアシスタントが実行できる「App Functions API」が導入されます。

このAPIを使うと、アプリの主要機能をデバイスのアシスタントに対して公開できるようになります。アシスタントは、公開された機能を使い、ユーザが音声で指示したタスクの遂行のためにアプリを実行します。

たとえば、ユーザがGeminiに対して「メモに〇〇を記録しておいて」指示しすれば、ユーザはアプリを開くことなく、お気に入りのメモアプリに〇〇が記録されるというワケです。

現状は、この仕組みを誰しもが利用できる状況ではなく、Samsungなどの特定のメーカが早期導入組となり、Gemini Extensionsを通じて展開を始めています。

また、複数アプリを組み合わせたり、複数のタスクを実行する使い方は想定されていないようで、1つのアプリに対して、1つのタスクを指示するといった使い方になるようです。しかし、これも時間が解決するはずです。

今を変えるきっかけになるかも

ほんと、夢のような話です。

しかし、アプリはアシスタントが操作してもよい機能を、先のAPIを使って実装する必要があるので、すべてのアプリが対象になるわけではありません。

これが上手く機能すれば、音声でタスクが実行できます。

スマホ1つで完結できる世の中にはなりますが、何をするにもアプリごとに異なる操作方法を覚える必要があり、うんざりしている方も多いと思います。音声だけで済めば、操作方法を覚える必要もなく、操作方法を知らないことで目的が達成できないということもなくなります。

とはいえ、現実世界でのやりとりに近づいただけと考えることもできます。

たとえば、人を相手に何かのタスクを遂行する際、何の支障もなく、そして、ストレスを感じず進められることは滅多にありません。いずれ、こうした未来が訪れるのかもしれませんが、当面は、これまでなかった問題や課題が出てくることにはなりそうです。

また、アプリ開発者の目線では、これまでのように、グラフィックを主体として特徴づけしづらくなると考えるかもしれません。

App Functions APIでは、ユーザとやりとりする手段として、画面も使えるのか音声だけなのか現時点ではわかりません。仮に、音声だけのやりに留まったとしても、体験をデザインすることも可能でしょうし、差別化要因にすることもできます。

ただ、これまで慣れ親しんだUX設計とは異なり、発想の転換は必要になりそうです。今後、何かしらガイドラインなどが示されることになるはずなので、待つことにしましょう。

さて、これがユーザに受け入れられれば、Androidも今のOSの形でなくなる可能性も考えられます。携帯電話は、ハードやソフトの革新により数十年周期で形を変えているので、この始まりになる可能性も考えられます。

とは言え、10年とかのレベルで先の話かもしれません。また、今のスマートフォンは、現状の形態で残り続けて、別のデバイスが登場する可能性も考えられます。後から振り返ると、Rabbit r1が未来の形を示していたという可能性も考えられます。

rabbit r1 - your AI assistant device

35年かかって実現する?

今は会社が存在していませんが、1990年ごろGeneral Magicが「Telescript」と呼ぶエージェントの仕組みを開発していました。これは、C言語の構文と似ているプログラミング言語でしたが、実現しようとしていることは似ていて、ユーザが明示的に操作しなくてもタスクを実行する仕組みです。当時は、今ほどAI技術が発達してなかったのでルールベースですが、ユーザの好みや過去の行動履歴を参照して、意思決定していたので、Intelligent Agentとも呼ばれていました。

当時、SFのような未来を提示された印象が残っています。

結果、General Magicは、成功することがなかったのですが、後の振り返りで、1880年にテレビを発明しようとしていたとも揶揄されるほどで、コンセプトは良いが技術面では不十分でした。しかし、後にIT業界で活躍する多くの人材を生み出したのも事実で、最も重要な失敗と呼ばれることになりました。

昔話が過ぎました。35年経過して、General Magicの想い描いた世界が現実になろうとしているように感じます。今回は、ベースとなる技術面では前提が全く異なるので、現実になる可能性もあります。注意深く観ていきましょう。

今週は、このあたりで、また来週。

おすすめ記事

記事・ニュース一覧