Los rumores sobre la próxima serie iPhone 17 de Apple hasta ahora han generado una gran cantidad de discusión sobre una posible reconfiguración del módulo de la cámara trasera. Filtraciones sugieren que los cambios cosméticos podrían ser significativos, pero si afectarían las capacidades existentes de la cámara del iPhone es una pregunta para la cual nadie ha proporcionado aún una respuesta adecuada.
El Problema de los Rumores sobre la Reconfiguración de la Cámara
Varios rumores sugieren que para los modelos iPhone 17 Pro, Apple podría pasar de su tradicional disposición de lentes triangular a una barra o tira horizontal y alargada de lentes, similar a la utilizada en el Google Pixel 9. Sin embargo, hemos tenido información contradictoria, con al menos una fuente afirmando que los modelos iPhone 17 Pro conservarán la configuración triangular existente en medio de rediseños más amplios del material de la carcasa trasera.
El punto principal de preocupación al adoptar un diseño de cámara horizontal es su posible impacto en la capacidad del dispositivo para capturar video espacial para Apple Vision Pro, una función actualmente compatible con los dispositivos iPhone 15 Pro y todos los modelos iPhone 16.
¿Qué es el Video Espacial?
El video espacial es un formato inmersivo que proporciona una experiencia más tridimensional al capturar contenido desde múltiples perspectivas. La tecnología permite a los espectadores que llevan puestos los Apple Vision Pro sentir que están presentes en el entorno que se filma, ofreciendo una mejora significativa sobre los formatos de video 2D tradicionales.
El modo de filmación requiere que dos cámaras graben simultáneamente cuando el iPhone se sostiene en orientación horizontal, donde la separación horizontal entre lentes es crucial para simular la distancia entre los ojos humanos y crear la percepción de profundidad. A diferencia del video 3D estándar que presenta una perspectiva estática, el video espacial de esta manera crea seis grados de libertad, de modo que si el espectador cambia de posición, la perspectiva en las imágenes de video también cambia en consecuencia.
En los modelos iPhone 15 Pro y iPhone 16 Pro, el video espacial se logra utilizando las cámaras principal Wide/Fusion y Ultra Wide alineadas verticalmente para capturar estas perspectivas diferentes. De manera similar, Apple adoptó un diseño de alineación vertical para las cámaras traseras de doble lente en los modelos iPhone 16 estándar como un movimiento estratégico para permitir la captura de video espacial.
La lógica parecería indicar entonces que si los modelos iPhone 17 Pro adoptaran la barra alargada horizontal de lentes, ya no serían capaces de grabar video espacial en orientación horizontal, perdiendo así una funcionalidad fundamental de la cámara que ha estado presente en sus predecesores durante dos generaciones. Por otro lado, si los modelos no-Pro mantienen la alineación vertical de las dos lentes utilizadas actualmente en el iPhone 16, la captura espacial se convertiría de manera incongruente en exclusiva para el buque insignia más asequible de Apple.
Por otro lado, si el iPhone 17 estándar también adoptara el diseño de barra alargada horizontal, entonces ningún modelo de la serie sería capaz de grabar video espacial. (Los rumores sugieren que lo mismo se puede decir ya para el “iPhone 17 Air”, que según la información, presenta solo una lente de cámara).
¿Estaría realmente Apple preparada para eliminar su capacidad de video espacial de algunos, si no de todos, los modelos iPhone 17, una función en la que ha invertido tanto en investigación y desarrollo (sin mencionar el marketing) para llevarla a los iPhones? Muchos sugerirían que ninguna de estas situaciones es probable.
Superando los Desafíos Técnicos Espaciales
Hay otra posibilidad, sin embargo. Los avances recientes en la fotografía computacional pueden haber abierto caminos para crear videos espaciales sin las restricciones de hardware actuales. Por ejemplo, el “Gaussian splatting”, que se inventó hace menos de dos años, puede generar modelos 3D fotorrealistas utilizando datos de múltiples ángulos de cámara, incluso cuando se utilizan disposiciones de cámara no tradicionales.
Niantic, una empresa con estrechos vínculos con Google, ya ha estado aprovechando el “Gaussian splatting” en su aplicación Scaniverse para crear modelos 3D fotorrealistas. No solo eso, la aplicación WebXR de Niantic “Into the Scaniverse” para el auricular Meta Quest permite a los usuarios entrar en los “splats” que han capturado en Scaniverse y caminar alrededor de ellos.
¿Podría ser que Apple esté desarrollando algo similar al “Gaussian splatting” para video, similar a su función visionOS 2 que utiliza aprendizaje automático avanzado para transformar una imagen 2D en una foto espacial que cobra vida cuando se ve en Vision Pro?
Por supuesto, si Apple está adoptando algo similar es una suposición en este momento. Igualmente, no hay razón para creer de una manera u otra que Apple ha desarrollado su propia solución alternativa que acomode un rediseño del módulo de la cámara al estilo “pista de aterrizaje”. Lo único que sabemos es que aprenderemos todo cuando Apple anuncie la serie iPhone 17 alrededor de su marco de tiempo habitual a mediados de septiembre.