Estados Unidos. Apple ha revelado una serie de actualizaciones centradas en accesibilidad, destacando nuevas funciones para su dispositivo Vision Pro. La próxima versión del sistema operativo visionOS, que llegará a finales de este año, integrará herramientas que permitirán a personas con discapacidad visual recibir descripciones precisas y automáticas de su entorno, tanto real como digital. Esta tecnología se basa en el aprendizaje automático y aprovecha las cámaras del dispositivo para interpretar el espacio circundante.
Una de las funciones más destacadas es la ampliación de VoiceOver, que ahora no solo lee contenido, sino que también podrá ayudar a detectar objetos, describir escenas e incluso leer documentos físicos usando la cámara del Vision Pro. La meta es que el dispositivo se convierta en un auténtico apoyo sensorial para personas ciegas o con baja visión.
Te puede interesar leer: Ray-Ban Meta con Inteligencia Artificial llegan a México; te damos los detalles
Además, Apple liberará una API para desarrolladores, lo que permitirá adaptar sus aplicaciones y hacerlas más accesibles. Esto podría facilitar la integración de herramientas de asistencia en vivo, como las ofrecidas por aplicaciones del tipo Be My Eyes, sin necesidad de usar las manos.
Otro avance notable es la implementación de nuevas interfaces cerebro-computadora dentro de visionOS, iOS y iPadOS, a través del sistema Switch Control. Esta función permitiría controlar dispositivos mediante pequeños movimientos o incluso señales mentales, sin contacto físico.
Este desarrollo ha contado con la colaboración de Synchron, una empresa especializada en implantes neuronales, y sugiere un futuro en el que interactuar con la tecnología será cada vez más intuitivo y accesible para todos los usuarios.