Sudando sobre DeepSeek, Google contraataca con un modelo Gemini más barato.


Después de que DeepSeek causara una ola de emociones en todo el mundo (y eliminara $589 mil millones del valor de Nvidia, la mayor pérdida de un solo día de cualquier empresa pública en la historia), Google responde. El gigante Alphabet ha expandido su línea de inteligencia artificial Gemini con el modelo asequible “Gemini-Lite”, con el objetivo de competir con rivales de bajo costo como el DeepSeek de China. Como informamos recientemente, Google mejoró la aplicación Gemini y la actualizó con el modelo 2.0 Flash, ofreciendo respuestas más rápidas y generación de imágenes mejorada.

Ahora, Google introduce más actualizaciones a su familia de modelos de inteligencia artificial Gemini, ampliando sus capacidades y disponibilidad.

El Gemini 2.0 Flash, lanzado originalmente como un modelo experimental en diciembre, ahora está disponible en general a través de la API de Gemini en Google AI Studio y Vertex AI.

Diseñado para desarrolladores que requieren baja latencia y alta eficiencia, este modelo equilibra la velocidad con un rendimiento mejorado y está optimizado para tareas a gran escala y alta frecuencia. Su capacidad de razonamiento multimodal le permite procesar grandes cantidades de información dentro de una ventana de contexto de 1 millón de tokens, lo que lo hace ideal para diversas aplicaciones. Además de esta actualización, Google ha lanzado una versión experimental de Gemini 2.0 Pro, que representa el modelo más avanzado de la empresa para el rendimiento de codificación y el manejo de promt complejos.

Este modelo está diseñado para proporcionar una comprensión más sólida del conocimiento del mundo, capacidades de razonamiento mejoradas y la capacidad de gestionar entradas de datos extensas. Con una ventana de contexto de 2 millones de tokens (la más grande ofrecida por los modelos de inteligencia artificial de Google hasta la fecha), Gemini 2.0 Pro debería ser capaz de llevar a cabo análisis profundos e integrar herramientas como la Búsqueda de Google y la ejecución de código.

LEAR  Apple presenta la próxima generación de software.

¡Esto suena bastante sólido! El modelo 2.0 Pro está actualmente disponible en Google AI Studio y Vertex AI, así como en la aplicación Gemini para usuarios avanzados de Gemini.

Para aquellos que no necesitan tan desesperadamente la inteligencia artificial, ahora tienen la opción de pagar menos. Ahí es donde entra en juego el Gemini 2.0 Flash-Lite; un nuevo modelo que prioriza la eficiencia de costos sin sacrificar la calidad.

Ofrece un rendimiento mejorado sobre el modelo 1.5 Flash anterior manteniendo la misma velocidad y asequibilidad, según afirma Google. Con una ventana de contexto de 1 millón de tokens y capacidades de entrada multimodal, Flash-Lite está diseñado para tareas de alto volumen, como generar subtítulos concisos para grandes conjuntos de datos a un costo mínimo.

Este modelo ahora está disponible en vista previa pública a través de Google AI Studio y Vertex AI.

¿Y tú, incluso usas Gemini?

Leave a Comment