“
A juzgar por la reacción a la publicación de Tim Cook en X sobre Apple Intelligence, internet no está preparado para Siri integrado con ChatGPT. Después del discurso de apertura de la WWDC24 del lunes, el CEO de Apple publicó un enlace en X sobre las nuevas capacidades de inteligencia artificial que llegarán a los dispositivos de Apple.
Inmediatamente, docenas de críticos — incluido Elon Musk — se sumaron a las críticas. Criticaron a Apple por trabajar con ChatGPT, en el que la gran mayoría de los comentaristas no confían.
“Acabas de asegurarte de que ningún miembro de mi familia VUELVA a comprar otro producto de Apple”, escribió uno. ¡Disfruta de tu espionaje!”
Sin embargo, la tormenta de críticas sorprendentemente ácidas y emocionales parece basarse en un malentendido básico sobre cómo funcionará Apple Intelligence. Tan centrado en la privacidad como siempre, Apple ha trabajado mucho para asegurarse de que Apple Intelligence mantendrá seguros tus datos, incluso de los ojos curiosos de las empresas de inteligencia artificial con las que trabaja.
Por eso parece que Apple está haciendo la inteligencia artificial de la manera correcta.
Apple Intelligence: IA con la privacidad en mente
“Apple Intelligence” es un término genérico para una gran cantidad de funciones potenciadas por IA integradas en los sistemas operativos y aplicaciones de Apple. Habilitará funciones tan diversas como crear tu propio emoji (llamado “Genmoji“) basado en fotos de personas en tu biblioteca de Fotos hasta encontrar una lista de libros recomendados en un correo electrónico olvidado, y mucho más.
La IA es la tecnología más candente del Valle de Silicio en este momento. Lanzó las acciones de Nvidia a la estratosfera y volvió a poner en relevancia a Microsoft. Hay una explosión cambrica de startups de IA, y cualquier empresa — o industria — que no esté pivotando rápidamente hacia la IA se considera un rezagado fuera de onda.
Pero la IA viene con riesgos, desde alucinaciones peligrosamente inexactas como recomendar que se agregue pegamento a la pizza para evitar que se caiga el queso hasta vehículos autónomos impredecibles que arrastran a peatones debajo de sus ruedas. Incluso las funciones de IA aparentemente inofensivas como Recall de Microsoft, un asistente de inteligencia artificial integrado en las PC Copilot+ que recuerda todo, se reveló como un desastre para la privacidad.
Apple es muy consciente de estos riesgos, por lo que la compañía incorporó robustos salvaguardas en Apple Intelligence, que se lanzará este verano a prueba con beta testers y al público en otoño.
Procesamiento en el dispositivo
La compleja arquitectura de Apple Intelligence.
Foto: Apple
Apple dijo que Apple Intelligence está diseñado teniendo en cuenta la privacidad. El sistema es profundamente personal — escanea correos electrónicos, mensajes, citas del calendario y una gran cantidad de otros datos personales — para responder preguntas, realizar tareas y controlar aplicaciones. Apple lo llama un “sistema de inteligencia personal”.
Por ejemplo, puede recopilar una gran cantidad de información de diversas fuentes para hacer sugerencias inteligentes. Durante el discurso de apertura de la WWDC24, Craig Federighi, vicepresidente senior de ingeniería de software de Apple, dijo que el sistema sería capaz de decirle si una reunión de trabajo reprogramada chocaría con la obra de teatro escolar de su hija más tarde ese día — recurriendo a datos como la hora y el lugar tanto de la obra como de la reunión, la distancia entre ellas y el tráfico previsto.
“Entender este tipo de contexto personal es esencial para proporcionar una inteligencia verdaderamente útil”, dijo Federighi. “Pero debe hacerse correctamente. No deberías tener que entregar todos los detalles de tu vida para que se almacenen y analicen en la nube de IA de alguien.”
Por esa razón, estas tareas y consultas se procesan localmente, en el dispositivo. Esto parece excluir las filtraciones de datos y garantiza que los modelos de IA futuros no se entrenen con los datos personales de los usuarios. (Esa no es la situación con modelos de IA competidores como Gemini de Google.)
“Es consciente de tus datos personales sin recopilar tus datos personales”, dijo Federighi. “Esto solo es posible gracias a nuestra integración única de hardware y software y nuestra inversión de años en la creación de silicio avanzado para la inteligencia en el dispositivo.”
Federighi dijo que el sistema se compone de grandes modelos de lenguaje y difusión que se alimentan de un “índice semántico” en el dispositivo, construido a partir de información obtenida de los datos personales del usuario.
“Cuando haces una solicitud, Apple Intelligence utiliza su índice semántico para identificar los datos personales relevantes y los alimenta al modelo generativo para que tengan el contexto personal para ayudarte mejor”, dijo Federighi.
Cómputo en la nube privada
El jefe de software de Apple, Craig Federighi, describe los “no-no” de Apple Intelligence.
Foto: Apple
Sin embargo, una segunda clase de consultas puede requerir modelos más grandes y máquinas con más potencia que un iPhone, iPad o Mac. Para responder a esas consultas complejas, Apple externaliza el procesamiento a Private Cloud Compute — su granja de servidores basada en la nube construida con silicio personalizado de Apple y un “sistema operativo endurecido diseñado para la privacidad”, según Apple en un documento en su sitio web de Investigación de Seguridad.
Como indica el nombre, Private Cloud Compute es un sistema privado. Apple se esforzó mucho por mantenerlo privado y seguro. Según Apple, los datos de PCC no son accesibles para nadie que no sea el usuario — ni siquiera para Apple.
“Creemos que PCC es la arquitectura de seguridad más avanzada jamás implementada para el cómputo de IA en la nube a escala”, dice el documento.
Según Cupertino, Apple Intelligence garantizará la privacidad mediante:
Hardware personalizado: Esto incluye características de seguridad del iPhone como Secure Enclave y Secure Boot.
Sin retención de datos: Los servidores de PCC no retienen ningún dato, a diferencia de los proveedores de servicios en la nube de IA competidores. “Tus datos nunca se almacenan ni se ponen a disposición de Apple”, dijo Federighi.
Sin ‘puertas traseras’: Apple no puede acceder a los datos, incluso si quisiera. De la misma forma, no hay forma de que la policía u otras personas obtengan acceso.
Transparencia verificable: Los investigadores de seguridad pueden inspeccionar las imágenes de software de PCC y verificar las garantías de privacidad de Apple. “Private Cloud Compute garantiza criptográficamente que tu iPhone, iPad y Mac se negarán a comunicarse con un servidor a menos que su software se haya registrado públicamente para su inspección”, dijo Federighi.
Evidentemente, Apple ha puesto mucho ingeniería avanzada y seria investigación en seguridad en Private Cloud Compute. El sistema lleva años en elaboración, y el resultado parece muy bueno.
“Esto establece un nuevo estándar en privacidad e IA”, dijo Federighi, “y desbloquea una inteligencia en la que puedes confiar.”
¿Y ChatGPT?
Apple Intelligence siempre solicita permiso al usuario antes de compartir cualquier dato con ChatGPT.
Foto: Apple
Finalmente, un tercer subconjunto de consultas y tareas requiere modelos de lenguaje grandes entrenados en un corpus más amplio que los correos electrónicos de un usuario. Aquí es donde entra en juego la asociación de Apple con OpenAI (y potencialmente otras empresas de IA).
“Existen otras herramientas de inteligencia artificial disponibles que pueden ser útiles para tareas que se basan en conocimiento general o ofrecen experiencia en un dominio especializado”, dijo Federighi. “Queremos que puedas utilizar estos modelos externos sin tener que saltar entre diferentes herramientas. Por eso los estamos integrando directamente en tus experiencias.”
Para responder a preguntas más generales o realizar tipos específicos de tareas que no se pueden realizar en el dispositivo o en Private Cloud Compute, Apple Intelligence se conectará a ChatGPT de OpenAI, uno de los principales LLM del mercado.
En el discurso de apertura, Federighi dio un par de ejemplos de consultas en las que ChatGPT podría ser útil: pedir recomendaciones de recetas, o recibir consejos sobre qué tipos de plantas podrían prosperar en un balcón visto en una foto de un usuario. Si se otorga permiso explícito, aparentemente caso por caso, ChatGPT podrá responder a consultas sobre los documentos, presentaciones, PDF o fotos del usuario. ChatGPT también está incorporado en Siri actualizado y en las Herramientas de Escritura de Apple Intelligence, que se pueden utilizar para crear y modificar contenido en todo el sistema.
Para mantener la privacidad y mantener al usuario en control de sus datos, Apple Intelligence solicita permiso explícito al usuario antes de enviar cualquier consulta, documento o foto a ChatGPT.
En el discurso de apertura, Apple mostró un ejemplo de una solicitud que Siri decidió que podría ser mejor manejada por ChatGPT. Un mensaje emergente de Siri dice claramente: “¿Quieres que use ChatGPT para hacer eso?” y ofrece al usuario dos opciones: cancelar o usar ChatGPT.
Aunque ChatGPT obtiene millones de potenciales nuevos usuarios, no obtendrá ingresos directamente de los usuarios: Apple dijo que usar ChatGPT será gratuito. Todavía no está claro si Apple pagará a OpenAI o, potencialmente, viceversa. (Google paga miles de millones de dólares a Apple para mantener su posición como motor de búsqueda predeterminado del iPhone.)
Para los usuarios, la integración de ChatGPT parece ser bastante limitada:
ChatGPT no almacenará consultas. Eso significa que los datos de los usuarios no se pueden utilizar para entrenar futuros modelos de OpenAI.
No es necesario tener una cuenta en ChatGPT: Las consultas a ChatGPT se pueden acceder de forma gratuita sin una cuenta. Sin embargo, los suscriptores de OpenAI pueden vincular sus cuentas para acceder a funciones avanzadas.
ChatGPT es una función optativa, completamente opcional: No tienes que usarla si no quieres. “Tú controlas cuándo se usa ChatGPT y se te preguntará antes de que se comparta tu información”, dijo Federighi.
Apple dijo que será posible agregar otros chatbots, como Gemini de Google, en el futuro. Al parecer, OpenAI no está obteniendo el tipo de asociación exclusiva que Google tiene como proveedor predeterminado de búsqueda en iOS. (Esta podría ser una táctica de demora, proporcionando a los usuarios capacidades avanzadas mientras Apple desarrolla su propia IA de nivel GPT 4o. Apple adoptó una estrategia similar con Google Maps mientras trabajaba en su propio Apple Maps.)
Las quejas de Elon Musk sobre la integración estrecha de OpenAI con iOS parecen exageradas. Musk amenazó con prohibir dispositivos de Apple en sus empresas si ChatGPT se integra en iOS. También atacó a Apple en X, ridiculizando a la empresa por su tardía entrada en el juego de la IA.
“¡Es patéticamente absurdo que Apple no sea lo suficientemente inteligente para hacer su propia IA, pero de alguna manera es capaz de que OpenAI proteja tu seguridad y privacidad!” Musk escribió. “¡Apple no tiene ni idea de lo que realmente está sucediendo una vez que entregan tus datos a OpenAI. Te están vendiendo río abajo.”
Esto parece ser un malentendido básico tanto de la diligenica de Apple en mantener la privacidad del usuario mientras incorpora la IA a sus productos, como de cómo Apple siempre aborda la nueva tecnología.
Apple Intelligence: IA hecha de la manera correcta
Primero, aunque iOS 18, macOS Sequoia y iPadOS 18 permiten a los usuarios aprovechar el conocimiento de ChatGPT, la IA externa no está integrada directamente en las plataformas de Apple en sí. El uso de ChatGPT sigue siendo completamente opcional y OpenAI no obtiene acceso incluso temporal a ningún dato que el usuario no comparta explícitamente.
Segundo, la inteligencia artificial es claramente la tecnología del momento. Y, como de costumbre, Apple adoptó un enfoque conservador para incorporarla en sus productos. Y lo hizo teniendo en cuenta la experiencia y la privacidad del usuario.
Hace años, el cofundador de Apple, Steve Jobs, sabiamente dijo que para diseñar grandes productos tecnológicos, necesitas empezar con la experiencia del usuario, no con la tecnología de moda del día. “Tienes que empezar con la experiencia del cliente y trabajar hacia atrás hacia la tecnología”, dijo en 1997. “No puedes empezar con la tecnología y luego tratar de averiguar dónde venderla.”
Apple demostró claramente su compromiso con este sólido principio de diseño al presentar Apple Intelligence y la gran cantidad de nuevas capacidades que traerá a iPhones, iPads y Macs.
Con demasiada frecuencia, la industria tecnológica parece hacer lo opuesto a lo que está haciendo Apple. Por ejemplo, las empresas de IA crean funciones de IA geniales y luego intentan averiguar cómo venderlas. Pero Apple dio el paso adicional de tomar funciones de IA geniales y averiguar cómo se pueden usar para hacer cosas que al cliente realmente le gustaría hacer. Y lo hizo incorporando salvaguardas elaboradas para proteger los datos de los usuarios a toda costa.
Al final, todo se reduce a una pregunta básica: ¿En quién confías para hacer la IA de la manera correcta?
Como probablemente sepas, Musk tiene un par de caballos en esta carrera. El fundador de Tesla dirige X (anteriormente conocido como Twitter) y xAI, que desarrolló un modelo de IA competidor. Se llama Grok y se construyó usando datos de Twitter. Musk también fue cofundador de OpenAI, pero se fue — y demandó — a la empresa tras desacuerdos sobre la dirección tomada con su desarrollo de IA.
Apple se jacta de un largo historial de poner la privacidad del usuario en primer lugar, incluso si eso significa abstenerse de la última tecnología de moda hasta que pueda implementarse de una manera apropiada y segura.
Cuando se trata de una empresa que utiliza la IA de una manera centrada en la privacidad, yo apuesto por Cupertino.
“