La herramienta de búsqueda de IA de Google dice a los usuarios que “coman rocas” por su salud.

Mantente informado con actualizaciones gratuitas

La nueva herramienta de búsqueda de inteligencia artificial de Google ha aconsejado a los usuarios que comer rocas puede ser saludable y pegar queso a la pizza, lo que ha provocado burlas y planteado preguntas sobre su decisión de incrustar una función experimental en su producto principal.

“Comer las rocas adecuadas puede ser beneficioso para ti porque contienen minerales importantes para la salud de tu cuerpo”, respondió la Visión general de la IA de Google a una consulta del Financial Times el viernes, aparentemente en referencia a un artículo satírico de abril de 2021 de The Onion titulado “Los geólogos recomiendan comer al menos una pequeña roca al día”.

Otros ejemplos de respuestas erróneas incluyen recomendar mezclar pegamento en la salsa de pizza para aumentar su “pegajosidad” y evitar que el queso se deslice, lo que puede haberse basado en una broma hecha hace 11 años en Reddit.

Más seriamente, cuando se preguntó “cuántos presidentes musulmanes ha tenido EE. UU.”, la visión general de la IA respondió: “Los Estados Unidos han tenido un presidente musulmán, Barack Hussein Obama”, repitiendo una falsedad sobre la religión del ex presidente difundida por algunos de sus oponentes políticos.

Google dijo: “La gran mayoría de las Visones generales de IA proporcionan información de alta calidad, con enlaces para profundizar en la web. Muchos de los ejemplos que hemos visto han sido consultas poco comunes, y también hemos visto ejemplos que fueron alterados o que no pudimos reproducir.

LEAR  Incendio en una planta industrial de Detroit causa múltiples explosiones que sacudieron los suburbios y enviaron escombros volando a una milla de distancia.

“Realizamos pruebas exhaustivas antes de lanzar esta nueva experiencia, y al igual que con otras características que hemos lanzado en Búsqueda, apreciamos los comentarios. Estamos tomando medidas rápidas cuando sea apropiado bajo nuestras políticas de contenido, y utilizando estos ejemplos para desarrollar mejoras más amplias en nuestros sistemas, algunas de las cuales ya han comenzado a implementarse.”

Los errores que surgen de las respuestas generadas por la IA de Google son una característica inherente de los sistemas que sustentan la tecnología, conocidos como “alucinaciones” o fabricaciones. Los modelos que alimentan a Google’s Gemini y al ChatGPT de OpenAI son predictivos, lo que significa que funcionan eligiendo las palabras siguientes más probables en una secuencia, basándose en los datos en los que fueron capacitados.

Aunque las empresas que construyen modelos de IA generativos, incluyendo OpenAI, Meta y Google, afirman que las últimas versiones de su software de IA han reducido la presencia de fabricaciones, siguen siendo una preocupación importante para las aplicaciones de consumidores y empresas.

Para Google, cuya plataforma de búsqueda es confiada por miles de millones de usuarios debido a sus enlaces a fuentes originales, las “alucinaciones” son particularmente dañinas. Su empresa matriz Alphabet genera la gran mayoría de sus ingresos de la búsqueda y su negocio publicitario asociado.

En los últimos meses, el director ejecutivo Sundar Pichai ha sido presionado, tanto interna como externamente, para acelerar el lanzamiento de nuevas funciones de IA generativa enfocadas en los consumidores después de ser criticado por quedarse atrás de los competidores, en particular OpenAI, que tiene una asociación de 13.000 millones de dólares con Microsoft.

LEAR  ¿Qué son los misiles Shadow Storm y por qué son cruciales para Ucrania?

En la conferencia anual de desarrolladores de Google este mes, Pichai presentó una nueva estrategia centrada en la IA para la empresa. Lanzó Overviews, una breve respuesta generada por Gemini a las consultas, en la parte superior de muchos resultados de búsqueda comunes para millones de usuarios de EE. UU. bajo los lemas “Deja que Google haga las búsquedas por ti” y “saca la carga de buscar”.

Los problemas iniciales a los que se enfrentaron los Overviews hacen eco de la reacción negativa en febrero contra su chatbot Gemini, que creó representaciones históricamente inexactas de diferentes etnias y géneros a través de su herramienta de creación de imágenes, como mujeres y personas de color como reyes vikingos o soldados alemanes de la Segunda Guerra Mundial.

En respuesta, Google se disculpó y suspendió la generación de imágenes de personas por su modelo Gemini. No ha restablecido la función.

Pichai ha hablado del dilema de Google para mantenerse al día con los competidores, actuando éticamente y siguiendo siendo el motor de búsqueda ampliamente confiable para devolver información precisa y verificable.

En un evento en la Universidad de Stanford el mes pasado, dijo: “Las personas acuden a la búsqueda en momentos importantes, como la dosis de medicamento para un niño de tres meses, por lo que tenemos que hacerlo bien… esa confianza se gana con esfuerzo y se pierde fácilmente”.

“Cuando nos equivocamos, la gente nos lo hace saber, los consumidores tienen el nivel más alto… ese es nuestro norte y hacia donde se dirige nuestra innovación”, agregó Pichai. “Nos ayuda a mejorar los productos y hacerlo bien.”

LEAR  Cómo reducir tu exposición a los disruptores endocrinos