Mordedura de seguridad: ¿Qué comparte exactamente Vision Pro sobre tu entorno?

La semana pasada, Apple finalmente lanzó una visión detallada de la privacidad de Vision Pro y visionOS. Si bien fue algo que la compañía podría haber tenido disponible desde el principio, ayuda a explicar con precisión lo que el ordenador espacial recopila de nuestro entorno y envía a aplicaciones de terceros, y más…


Seguridad Bite de 9to5Mac es exclusivamente traído a usted por Mosyle, la única plataforma unificada de Apple. Hacer que los dispositivos Apple estén listos para el trabajo y seguros en la empresa es todo lo que hacemos. Nuestro enfoque integrado único para la gestión y la seguridad combina soluciones de seguridad específicas de Apple de última generación para endurecimiento y cumplimiento totalmente automatizados, EDR de próxima generación, confianza cero potenciada por IA y gestión de privilegios exclusivos con el MDM de Apple más potente y moderno del mercado. El resultado es una Plataforma Unificada de Apple totalmente automatizada, en la que confían actualmente más de 45,000 organizaciones para hacer que millones de dispositivos Apple estén listos para su trabajo sin esfuerzo y a un costo asequible. Solicite su PRUEBA EXTENDIDA hoy y comprenda por qué Mosyle es todo lo que necesita para trabajar con Apple.


Privacidad, ¡a quién le importa!: ¿Por qué debería preocuparme?

Para muchos de los investigadores de seguridad con los que hablo, mencionar la realidad mixta viene con mucha aprensión. Mientras que los consumidores están más preocupados por la etiqueta de precio casi de $4,000 del Vision Pro, los que están en el campo de la seguridad parecen más conscientes de los peligros. Después de todo, este dispositivo tiene seis micrófonos y doce cámaras que llevas en tu hogar.

LEAR  Cómo utilizar las funciones integradas de seguridad de red en dispositivos Apple.

Como mencioné en una publicación anterior de Security Bite, los riesgos generales de privacidad del Apple Vision Pro o cualquier casco pueden ser alarmantes. Por ejemplo, la distancia desde el suelo medida por sensores de profundidad puede determinar la altura de un usuario. El sonido de un tren que pasa podría ayudar a indicar una ubicación física. Los movimientos de la cabeza de un usuario se pueden usar para determinar estados emocionales y neurológicos. Los datos recopilados sobre los ojos del usuario son probablemente los más preocupantes. No solo esto podría llevar a publicidad dirigida y perfiles de comportamiento, sino que también podría revelar información de salud sensible. No es raro que los oftalmólogos ayuden a diagnosticar a los pacientes simplemente mirando sus ojos.

Nuevos detalles de privacidad del entorno Vision Pro

Aunque parezca real, los entornos dentro del Apple Vision Pro se crean utilizando una combinación de datos de cámara y LiDAR para proporcionar una visualización casi en tiempo real del espacio de un usuario. Además, visionOS utiliza trazado de rayos de audio para simular el comportamiento de las ondas sonoras a medida que interactúan con objetos y superficies. Las aplicaciones superponen estas escenas o, en algunos casos, crean entornos propios.

Con el lanzamiento del nuevo resumen de privacidad de Vision Pro, ahora entendemos mejor qué datos del entorno se envían desde el casco y se comparten con las aplicaciones.

Estimación de plano: detecta superficies planas cercanas donde se pueden colocar objetos virtuales en 3D, o lo que Apple llama Volúmenes. Mejora la inmersión al permitir que los usuarios interactúen con objetos virtuales como parte de su entorno físico.

LEAR  Oficina de Asuntos Públicos | El Fiscal General Merrick B. Garland pronuncia comentarios sobre la demanda contra Apple por monopolizar los mercados de smartphones.

Reconstrucción de escena: la reconstrucción de la escena implica la creación de una malla poligonal que representa con precisión el contorno de los objetos dentro del espacio físico del usuario. Esta malla ayuda a que los objetos virtuales se alineen correctamente con los objetos físicos en el entorno del usuario.

Anclaje de imagen: esta función asegura que los objetos virtuales permanezcan anclados en sus posiciones previstas en relación con los objetos del mundo real, incluso cuando el usuario se mueve. Joanna Stern del WSJ demostró esta tecnología al principio en un video publicado en X donde se la ve colocando múltiples temporizadores sobre objetos que hierven en la estufa.

Reconocimiento de objetos: Apple afirma que utiliza el reconocimiento de objetos para identificar “objetos de interés en tu espacio”. En un sentido amplio, Vision Pro se usa para identificar qué hay en tu entorno.

Por defecto, las aplicaciones no pueden acceder a los datos sobre los alrededores de Vision Pro. Para que las experiencias sean más realistas, los desarrolladores de terceros pueden querer acceder a estos datos del entorno. Este es un proceso similar a dar acceso a Fotos o Cámara en un iPhone; un espacio completo en Vision Pro puede acceder a los datos de entorno para admitir experiencias más inmersivas.

“Por ejemplo, Encuentro con Dinosaurios solicita acceso a tu entorno para que los dinosaurios puedan irrumpir en tu espacio físico. Al dar acceso a una aplicación a los datos del entorno, la aplicación puede mapear el mundo que te rodea utilizando una malla de escena, reconocer objetos en tu entorno y determinar la ubicación de objetos específicos en tu entorno”, explica Apple.

LEAR  Informe: Nuevo display anti-reflejo y resistente a los arañazos llegando al iPhone 17

Sin embargo, cualquier aplicación solo tendrá acceso a información sobre tu entorno dentro de cinco metros de donde estás. Es por esto que elementos de inmersión como sombras y áreas reflectantes ya no existen más allá de esta distancia.

FTC: Utilizamos enlaces de afiliados que generan ingresos. Más.