Por qué los nuevos iPhones y Vision Pro no pueden ejecutar Apple Intelligence

Actualización 24 de junio: John Gruber de Daring Fireball explica por qué Private Cloud Compute no puede asumir todas las funciones de Apple Intelligence.

Si estabas viendo a Apple demostrar las principales características de Apple Intelligence durante la presentación de la WWDC el lunes, es probable que estuvieras pensando en todas las formas en que podrías usar el nuevo servicio en tu iPhone este otoño. Sin embargo, al finalizar, muchos usuarios de iPhone se decepcionaron al enterarse de que no funcionará en sus teléfonos: Apple Intelligence está fuera de los límites para todos excepto los teléfonos más nuevos y más caros.

Si bien las Mac y iPads desde 2020 disfrutarán de los beneficios de Apple Intelligence, el soporte para la gama de iPhone está restringido al 15 Pro y al 15 Pro Max. Esto deja afuera dos de los teléfonos más nuevos de Apple lanzados hace apenas unos meses, así como todos los modelos más antiguos que aún están a la venta y el iPhone SE.

Sin embargo, a pesar de que pueda parecer una decisión extraña, ya que el chip A16 en el iPhone 15 y iPhone 15 Plus es lo suficientemente rápido, un nuevo informe de Ming-Chi Kuo arroja algo de luz sobre las cosas. Según señala, la potencia del Motor Neural del chip A16 es en realidad superior a la del M1 (17 billones de operaciones por segundo frente a 11 TOPS), por lo que los requisitos no tienen que ver con la NPU. Más bien tiene que ver con la memoria: El chip A16 tiene 6GB de RAM frente a al menos 8GB en todos los dispositivos que admiten Apple Intelligence.

LEAR  OpenAI está ayudando a Apple a arreglar Siri, y eso tiene a Microsoft preocupado

Él lo desglosa aún más: “La demanda de DRAM se puede verificar de otra manera. Apple Intelligence utiliza un LLM en dispositivo de 3B (que debería ser FP16, ya que el NPU/ANE del M1 soporta bien el FP16). Después de la compresión (utilizando una configuración mixta de 2 bits y 4 bits), aproximadamente se necesita reservar de 0.7 a 1.5GB de DRAM en todo momento para ejecutar el LLM en dispositivo de Apple Intelligence.”

En Daring Fireball, John Gruber explica por qué los dispositivos que no tienen suficiente memoria no pueden simplemente utilizar Private Cloud Compute para la mayoría de las tareas: “Los modelos que se ejecutan en dispositivo son totalmente diferentes a los que se ejecutan en la nube, y uno de esos modelos en dispositivo es la heurística que determina qué tareas pueden ejecutarse con procesamiento en dispositivo y cuáles requieren Private Cloud Compute o ChatGPT.” También afirma que Vision Pro no está obteniendo Apple Intelligence porque el dispositivo de próxima generación “ya está haciendo un uso significativo del Motor Neural del M2 para complementar el chip R1 para propósitos de procesamiento en tiempo real – oclusión y detección de objetos, cosas así.”

Rumores previamente han afirmado que todos los modelos de iPhone 16 tendrán 8GB de RAM, y según los requisitos de Apple Intelligence, eso casi con seguridad será así. Kuo también asume que los futuros dispositivos probablemente comenzarán en 16GB de RAM a medida que evoluciona Apple Intelligence “muy probablemente a un LLM de 7B.” Algunos teléfonos inteligentes, como el OnePlus 12 y el Xiaomi 14, ya tienen 16GB de RAM.

LEAR  La evolución de los sistemas operativos: de los mainframes a la nube

Si eres programador, la situación es un poco peor. La nueva IA de completado de código predictivo en Xcode 16 requiere una Mac con Apple Silicon con 16GB de RAM, según la documentación de Apple.

Cuando Apple Intelligence llegue con iOS 18 este otoño, seguirá estando en versión beta. Sin embargo, informes han dicho que seguirá siendo una característica central del iPhone 16.