¿Pegamento en la pizza? Las revisiones de la IA de Google recuerdan la tendencia de ‘Google bombing’ de principios de los 2000

Si buscaba “fracaso miserable” en Google en 2005, la biografía oficial del presidente George W. Bush en el sitio web de la Casa Blanca aparecería como el resultado principal.

Esto no fue un acto político por parte de la empresa tecnológica, sino más bien una broma. Los bromistas de Internet de principios de los 2000 pueden recordar la diversión de “Google bombing”, del cual el insulto a Bush es el más famoso.

El Google bombing ocurrió cuando los trolles enlazaban una página web – como la biografía de Bush – a un texto específico en sus propios sitios – como, en el caso de Bush, “fracaso miserable”. Con suficientes instancias, el algoritmo del motor de búsqueda interpretó erróneamente los términos como vinculados populares. Esto creó todo tipo de resultados entretenidos: buscar “mentiroso” y “caniche” producía la página web del primer ministro del Reino Unido en ese momento, Tony Blair, mientras que “culto peligroso” devolvía el sitio web de la Iglesia de la Cienciología como primer resultado.

Google ajustó su algoritmo para prevenir futuros Googlebombs en 2007. Sin embargo, el fantasma de Googlebombs ha vuelto para perseguir al gigante tecnológico, y esta vez, es a través de su propio error tecnológico.

Después de que Google implementara una visión general de búsqueda impulsada por inteligencia artificial en mayo, los usuarios notaron rápidamente los resultados falsos y disparatados que estas visiones generales a veces proporcionaban. Si le preguntabas a Google sobre los beneficios para la salud de correr con tijeras, te decía que la actividad era un buen ejercicio cardio para “mejorar tus poros y darte fuerza”. Otra consulta llevaba a Google a recomendar los beneficios para la salud de las rocas, aparentemente haciendo referencia a un artículo satírico de “The Onion”.

LEAR  El jefe del Pentágono le dice a su homólogo israelí que proteger a los palestinos es un imperativo moral. (Reuters) Proteger a los palestinos es un imperativo moral, según jefe del Pentágono, le dice a su homólogo israelí. (Reuters)

“Comer las rocas adecuadas puede ser bueno para ti porque contienen minerales que son importantes para la salud de tu cuerpo”, respondió la visión general de IA de Google a la consulta de un periodista.

‘Pegamento en la pizza’ sigue siendo fuerte

Sin embargo, nada hizo que Internet se alborotara tanto como la sugerencia de la Visión General de IA de “mezclar aproximadamente 1/8 taza de pegamento no tóxico en la salsa” para evitar que el queso se deslizara de tu rebanada de pizza.

Un portavoz de Google restó importancia a los resultados falsos, escribiendo en ese momento que “los ejemplos que hemos visto son consultas generalmente muy poco comunes y no son representativos de la experiencia de la mayoría de las personas”. Añadieron que la “gran mayoría” de las visiones generales de IA proporcionan información de alta calidad, con enlaces que permiten a la persona que pregunta profundizar en la búsqueda.

Sin embargo, incluso cuando Google expresaba públicamente confianza en su nueva herramienta de IA, la compañía comenzó silenciosamente a reducir su visibilidad. Google redujo gradualmente la cantidad de veces que las visiones generales de IA aparecían en los resultados de búsqueda del 84% al 15%, según una investigación de la plataforma de marketing de contenido BrightEdge.

Un portavoz de Google refutó los datos, señalando que los números eran diferentes de lo que había visto la compañía. Añadieron que esto se debía probablemente a que BrightEdge había examinado un conjunto de consultas más estrecho que no era una muestra representativa del tráfico de búsqueda de Google, incluidos aquellos que habían optado por no recibir visiones generales de IA.

LEAR  Avance de la moda: la evolución de los tejidos inteligentes

Un ejemplo donde las visiones generales de IA a veces todavía aparecen es el mismo resultado de pegamento en pizza que hizo que Internet se descontrolara. Recientemente, The Verge informó que si le preguntas a Google cuánto pegamento agregar a tu pizza, te dará el mismo resultado, solo que esta vez citando un artículo de Business Insider sobre el fiasco.

Lo cual significa que, parece que mientras más periodistas escriben sobre las ridículas visiones generales de IA, más alimenta el algoritmo para producir los mismos resultados equivocados. Es una especie de bucle de retroalimentación autocomplaciente que recuerda a la absurdidad de los días del Googlebombing, aunque el único trol en juego es Google mismo.

Cuando los reporteros de Fortune realizaron varias búsquedas sobre pizza, queso y pegamento, ninguna visión general de IA apareció, lo que posiblemente significa que Google pudo haberse enterado de sus continuos errores y ajustó rápidamente su plataforma.

El portavoz de Google dijo que las consultas continúan mostrándose para un gran número de búsquedas, pero la tecnología está siendo editada.

“Seguimos refinando cuándo y cómo mostramos las visiones generales de IA para que sean lo más útiles posible, incluidas actualizaciones técnicas para mejorar la calidad de la respuesta”, dijeron a Fortune.

Suscríbase al boletín informativo Eye on AI para mantenerse al tanto de cómo la IA está dando forma al futuro de los negocios. Regístrese gratis.”