Apple⁠新しいアクセシビリティ機能を発表 ―視線による操作や音楽を“テクスチャ+振動”体験する機能も

Appleは2024年5月15日、ハンディキャップのあるユーザがiPhoneやiPadなどを操作する際に助けとなる、2024年後半に登場予定の新しいアクセシビリティ機能を発表した。毎年5月の第3木曜日(今年は5月16日)に開催される、世界中でアクセシビリティについて話し合い、考え、学ぶことを目的とした一日「Global Accessibility Awareness Day(GAAD⁠⁠」に合わせて発表されたもの。

アイ⁠トラッキングがiPadとiPhoneで利用可能に

人工知能を活用したアイ・トラッキングにより、目だけでiPadやiPhoneを操作できるオプションが組み込まれる。身体障害を持つユーザー向けに設計されたアイ・トラッキングでは、まず前面カメラを使用して数秒でセットアップと調整を行う。デバイス上で実行される機械学習により、この機能のセットアップと制御に使用されるすべてのデータはデバイス上に安全に保存され、Appleに共有されることはない。

アイ・トラッキングはiPadOSおよびiOSアプリ全体で機能し、追加のハードウェアやアクセサリは必要ない。アイ・トラッキングを使用すると、ポインタはアプリの要素間を移動し、ドウェルコントロール(ポインタが一定時間停止しているとその場所で追加アクションを実行できる)を使用して各要素をアクティブ化し、目だけで物理ボタン、スワイプ、その他のジェスチャなどの機能にアクセスできる。

Music Hapticsで音楽を“体感” ―音に関する新機能

「Music Haptics」は、聴覚障害のあるユーザーがiPhoneで音楽を体験する新しい方法である。機能をオンにするとiPhoneのTaptic Engineが音楽のオーディオに合わせてタップ、テクスチャ、洗練されたバイブレーションがプレイされる。Music HapticsはApple Musicカタログの数百万曲で機能し、開発者がアプリで音楽をよりアクセスしやすくするためのAPIとしても利用できるようになる。

Vocal Shortcutsで音声認識を強化

iPhone、iPadで「Vocal Shortcuts」を使用すると、ユーザーはSiriが理解できる⁠カスタム発声⁠を割り当てたショートカットを起動し、複雑な操作を実行できる。また「Atypical Speech」⁠非定型音声)はデバイス上の機械学習を使用してユーザーの音声パターンを認識、音声認識機能を強化する。これらは脳性麻痺、ALS、脳卒中など、言語に影響を与える後天性または進行性の症状を持つユーザー向けに設計された機能である。

乗り物酔いを軽減するVehicle Motion Cues

Vehicle Motion Cuesは、移動中の車両の乗客の乗り物酔いを軽減するのに役立つiPhoneおよびiPadの新しい機能。走行中の乗り物内でiPhone/iPad の画面を見ていると快適に過ごせないことがあるが、Vehicle Motion Cuesを使用すると、画面の端にあるアニメーションドットが車両の動きの変化を表し、コンテンツの利用を妨げることなく不快な感覚を軽減する。iPhone/iPadのセンサーによりユーザーが移動中の車両に乗っていることを認識し、それに応じて反応するもの。

CarPlayに音声コントロール⁠音声認識機能など追加

CarPlayに音声コントロール、カラーフィルター、音声認識が追加される。音声コントロールによりユーザーは声だけでCarPlayを操作できる。音声認識は、聴覚障害のあるドライバーや同乗者がわかるように、車のクラクションやサイレンを通知するアラートを出す。カラーフィルターを使用すると、色覚異常のユーザー向けに太字テキストや大きなテキストなどのアクセシビリティ機能が追加され、UIが視覚的に使いやすくなる。

visionOSにアクセシビリティ機能が登場

visionOSでは、聴覚障害のあるユーザーを含むすべての人がライブ会話やアプリからの音声で会話を理解できるようにするライブキャプション機能が追加される。また、視力の低いユーザー、明るい光や激しい点滅を避けたいユーザー向けに「透明度を下げる」⁠スマート反転」⁠薄暗く点滅するライト」機能が追加される。これらの機能は、Apple Vision Proですでに利用可能なアクセシビリティ機能と合わせてさまざまな応用が可能になるという。

このほか、点字スクリーンの入力では新たに日本語が利用できるようになるなど、日本のユーザー向けのアクセシビリティ機能も発表されている。

おすすめ記事

記事・ニュース一覧