Apple está teniendo su pastel de IA generativa y comiéndolo también. Apple Intelligence, que fue presentado hoy en la WWDC 2024, es en gran parte un producto de modelos generativos locales de varios tamaños, pero incluso el poder del chip A17 Pro no siempre es suficiente para manejar cada una de sus consultas sustanciales.
A veces, Apple tendrá que recurrir a la nube. No a cualquier nube, ¿eh?, sino a su propio Private Compute Cloud donde sus datos están protegidos de maneras que, según Apple, podrían no estar en otros sistemas de IA generativa basados en la nube.
En una sesión de profundización posterior a la conferencia principal de la WWDC 2024, el Vicepresidente Senior de Ingeniería de Software de Apple, Craig Federighi y el Vicepresidente Senior de Estrategia de Aprendizaje Automático e IA de Apple, John Giannandrea, explicaron exactamente cómo Apple Intelligence y los sistemas que respaldará, como el nuevo Siri, decidirá cuándo mantener sus consultas en el dispositivo, cuándo comunicarse con el Private Compute Cloud de Apple, y cómo decide qué compartir con esa nube Apple.
“Estamos en el comienzo aquí,” dijo Federighi mientras explicaba el viaje de la IA, los desafíos que Apple enfrentó, cómo los resolvieron y el camino por delante.
Lo que está haciendo Apple aquí no es algo pequeño, y se podría decir que Apple cavó el agujero en el que está. Apple Intelligence es esencialmente una serie de modelos de IA generativos de diversos tamaños que ven profundamente dentro de su iPhone para conocerte. Conocerte significa que pueden ayudarte de maneras que otros modelos LLM y IA generativos probablemente no puedan. Es como cuando su pareja o padre puede consolarlo porque lo conocen todo sobre usted, mientras que un extraño solo podría adivinar qué podría reconfortarlo pero también tiene la misma probabilidad de equivocarse. Conocerlo a usted y todos los datos en su teléfono es la superpotencia y la debilidad potencial de Apple Intelligence, especialmente cuando se trata de privacidad.
Federighi explicó que Apple creó una solución en dos partes para mitigar este problema y evitar el desastre.
(Crédito de la imagen: Future / Lance Ulanoff)
Primero, la inteligencia a bordo decide qué fragmentos de todos sus datos son cruciales para obtener la respuesta correcta. Luego envía solo esos datos (encriptados y anonimizados) al Private Compute Cloud.
La segunda parte de la solución es cómo se construye la nube y cómo maneja los datos. Se trata de una nube que funciona con eficiente Apple Silicon pero no tiene almacenamiento permanente. Los investigadores de seguridad tienen acceso al servidor pero no a sus datos para llevar a cabo auditorías de privacidad. El iPhone no enviará estos fragmentos de datos a un servidor que no haya sido verificado públicamente. Federighi lo comparó con las claves y tokens que se encuentran en los servidores de criptomonedas.
“Nadie, ni Apple ni nadie más tendría acceso a sus datos,” agregó Federighi.
Para ser claro, sus datos en el dispositivo están en el centro de lo que Apple está haciendo con Apple Intelligence y el nuevo Siri. Es una “comprensión rica de lo que hay en su dispositivo,” y esa base de conocimiento es “una que solo se enriquecerá con el tiempo,” dijo Giannandrea.
También obtuvimos una idea de cómo el índice semántico de Siri, que puede analizar datos de todo el teléfono, incluida la información meta en fotos y videos, se potencia cuando se combina con los modelos de Apple Intelligence. Todo esto ayuda a reunir una comprensión de a qué se refiere usted, según Federighi.
Apple ha estado trabajando en el índice semántico durante años. “Así que realmente es una historia de nosotros construyendo durante muchos, muchos años hacia una capacidad realmente poderosa en el dispositivo.”
La pareja también aclaró sobre qué modelos estará utilizando y cuándo. Resulta que los locales, a menos que solicite, digamos, ChatGPT, son todos de Apple.
“Es importante recalcar que Apple Intelligence y las experiencias de las que hablamos se basan en los modelos construidos por Apple,” agregó Federighi.
Como es habitual, Apple ha capacitado a estos modelos con datos. Parte de ellos provienen de la web pública (basados en el proyecto en curso de Apple en la búsqueda basada en la web), aunque Giannandrea dijo que los editores pueden optar por no incluir sus datos. Apple también ha licenciado datos de archivos de noticias e incluso ha aplicado algunos datos internos a su modelo de difusión.
La pareja también confirmó que Apple Intelligence solo funcionará en iPhones con el chip A17 Pro. Como explicación, Giannandrea dijo, “los modelos fundamentales requieren una gran cantidad de computación,” Federighi agregó que el último motor neuronal del A17 Pro es “el doble de potente que la generación anterior” y que tiene una arquitectura avanzada para soportar la IA de Apple. Todo esto probablemente no es muy reconfortante para los propietarios de iPhone 15 (A16 Bionic) y iPhone 14 (Pro y estándar).
En cuanto a cómo Apple Intelligence funcionará con modelos de terceros, Federighi señaló que algunos de ellos tienen experiencia que puede que no encuentres en sus modelos, como responder a la pregunta, “¿Qué puedo preparar con estos ingredientes?” Luego Fedeigi añadió algo que podría poner involuntariamente a la plataforma de OpenAI en una luz no deseada, “Incluso las alucinaciones son útiles; terminas con una comida extraña.”
También puede gustarte
“