Apple añade más modelos de IA para estudio de código abierto.

Hugging Face es un repositorio de código abierto para la investigación y modelos de IA

Apple ha contribuido con 20 nuevos modelos de Aprendizaje Automático Central a un repositorio de IA de código abierto llamado Hugging Face, sumándolos a sus modelos públicos y documentos de investigación existentes.

En abril de 2024, Apple compartió públicamente una serie de cuatro LLM Eficientes de Código Abierto (OpenELMs), y lo hizo a través de la plataforma colaborativa Hugging Face. Esta plataforma se utiliza para hospedar modelos de IA, para entrenarlos, y en particular para que las personas trabajen juntas para mejorarlos.

Según lo señalado por VentureBeat, Apple ha agregado ahora 20 nuevos modelos de Core ML, además de una serie de conjuntos de datos, en Hugging Face.

“Esta es una actualización importante al subir muchos modelos a su repositorio de Hugging Face con su marco de Core ML”, dijo Clement Delangue, cofundador y CEO de Hugging Face. “La actualización de [Apple] incluye nuevos modelos emocionantes centrados en texto e imágenes, como clasificación de imágenes o segmentación de profundidad.”

Las nuevas incorporaciones de Apple a la plataforma de código abierto incluyen modelos para clasificación de imágenes y segmentación semántica. Estos son respectivamente para identificar elementos de una imagen o de texto.

“Imagina una aplicación que puede eliminar sin esfuerzo fondos no deseados de fotos”, dijo Delangue, “o identificar instantáneamente objetos frente a ti y proporcionar sus nombres en un idioma extranjero.”

A pesar de que esta es la primera versión pública de Apple desde el anuncio de Apple Intelligence en la WWDC, está lejos de ser la primera contribución de la empresa a la investigación en IA. Además de los cuatro OpenELMs añadidos a Hugging Face en abril de 2024, los investigadores de Apple lanzaron “Ferret” en GitHub, un gran modelo de lenguaje (LLM) para consultas de imágenes, en octubre de 2023.

LEAR  Probando la nueva funcionalidad de audífonos de iOS 18.1.

Se cree que este último podría haber sido utilizado posteriormente en la función Genmoji de Apple Intelligence en iOS 18.

Se creía que la publicación original de documentos de investigación y los primeros OpenELMs eran un intento de Apple de refutar la afirmación común de que estaba rezagado con respecto al resto de la industria en cuanto a IA. Ahora parece que si bien Apple ha estado utilizando con éxito la IA en forma de Aprendizaje Automático durante años, no fue hasta que Craig Federighi probó Microsoft Copilot que comenzó a tomar más en serio la IA generativa.