La primera nueva característica, Eye Tracking, utiliza inteligencia artificial. Permite a los usuarios con discapacidades físicas controlar y navegar un iPhone o iPad solo con la mirada. Utiliza la cámara frontal para configurar y calibrar. Toda la información se almacena en el dispositivo y no requiere hardware adicional.
Music Haptics será compatible con Apple Music y con aplicaciones de terceros que utilicen una API. La función, cuando está activada, utiliza el Motor Táptico en el iPhone para reproducir toques, texturas y vibraciones refinadas de la música. Está diseñado para que los usuarios sordos o con problemas de audición puedan experimentar la música.
Los Atajos Vocales permitirán a los usuarios de iPhone y iPad asignar frases personalizadas, comprensibles por Siri, para lanzar Atajos y completar tareas específicas. La función es para usuarios con condiciones que afectan el habla, como la parálisis cerebral o ELA.
Para ayudar a reducir el mareo por movimiento, las Señales de Movimiento del Vehículo mostrarán puntos animados en los bordes de la pantalla para representar conflictos de sensores sin interferir con el contenido principal en pantalla.
Tres nuevas características de accesibilidad también llegarán a CarPlay: Control de Voz, filtros de color y Reconocimiento de Sonidos. El Control de Voz permite a los usuarios de CarPlay navegar y controlar aplicaciones con un comando de voz. El Reconocimiento de Sonidos alerta a los conductores o pasajeros sordos cuando se activa una bocina o una sirena. Los Filtros de Color hacen que la interfaz sea más fácil de usar para personas con daltonismo.
Finalmente, opciones de accesibilidad como Subtítulos en Vivo en FaceTime están programadas para llegar a visionOS y al Apple Vision Pro.