Apple presenta nuevas funciones para mejorar la accesibilidad

🧹🪣 ¡Conga 8290! ¡Conoce el robot aspirador con mejor calidad-precio que he probado! [Más info ]

Apple ha anunciado recientemente una serie de nuevas funcionalidades de accesibilidad que llegarán más adelante este año, incluyendo innovaciones como el Eye Tracking, (Seguimiento ocular) una característica que permitirá a usuarios con discapacidades físicas controlar su iPad o iPhone solo con el movimiento de sus ojos.

Además, Music Haptics ofrecerá una nueva manera para que usuarios sordos o con dificultades auditivas puedan experimentar la música utilizando el motor Taptic en el iPhone; Vocal Shortcuts permitirá a los usuarios realizar tareas mediante sonidos personalizados; Vehicle Motion Cues ayudará a reducir el mareo por movimiento al utilizar el iPhone o iPad en un vehículo en movimiento; y se esperan más características de accesibilidad en visionOS.

Entrada Relacionada

 

Control visual con Eye Tracking

Eye Tracking, impulsado por inteligencia artificial, ofrece a los usuarios una opción incorporada para navegar por iPad y iPhone solo con el movimiento de sus ojos.

Diseñado para usuarios con discapacidades físicas, Eye Tracking utiliza la cámara frontal para configurarse y calibrarse en cuestión de segundos. Todos los datos utilizados para configurar y controlar esta función se mantienen de manera segura en el dispositivo y no se comparten con Apple. Eye Tracking funciona en aplicaciones de iPadOS e iOS y no requiere hardware ni accesorios adicionales.

 

Música más accesible con Music Haptics

Music Haptics es una nueva forma de que los usuarios sordos o con dificultades auditivas puedan experimentar la música en el iPhone. Con esta función de accesibilidad activada, el motor Taptic en el iPhone reproduce golpes, texturas y vibraciones refinadas al ritmo de la música.

Music Haptics funciona con millones de canciones en el catálogo de Apple Music y estará disponible como una API para que los desarrolladores puedan hacer que la música sea más accesible en sus aplicaciones.

 

Nuevas herramientas de voz para todos

Vocal Shortcuts permite a los usuarios de iPhone y iPad asignar expresiones personalizadas que Siri pueda entender para ejecutar accesos directos y completar tareas complejas.

Otra nueva función, Listen for Atypical Speech, ofrece una opción para mejorar el reconocimiento del habla para una variedad más amplia de expresiones. Listen for Atypical Speech utiliza el aprendizaje automático en el dispositivo para reconocer los patrones de habla del usuario.

 

Reducción del mareo por movimiento en vehículos

Vehicle Motion Cues es una nueva experiencia para iPhone y iPad que puede ayudar a reducir el mareo por movimiento en pasajeros que viajan en vehículos en movimiento.

Con Vehicle Motion Cues, unos puntos animados en los bordes de la pantalla representan los cambios en el movimiento del vehículo para ayudar a reducir el conflicto sensorial sin interferir con el contenido principal.

 

Mejoras en la Accesibilidad en visionOS

Este año, las mejoras en la accesibilidad en visionOS incluirán Live Captions en todo el sistema para ayudar a todos, incluidos los usuarios sordos o con dificultades auditivas, a seguir el diálogo hablado en conversaciones en vivo y en audio de aplicaciones.

Con Live Captions para FaceTime en visionOS, más usuarios podrán disfrutar fácilmente de la experiencia única de conectar y colaborar utilizando su Persona. Apple Vision Pro agregará la capacidad de mover subtítulos utilizando la barra de ventana durante el video inmersivo de Apple, así como el soporte para dispositivos auditivos Made for iPhone y procesadores auditivos cocleares adicionales.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más