“Ahora tenemos una gran industria de empresas relacionadas con la inteligencia artificial que están incentivadas a hacer cosas dudosas para continuar con su negocio”, le dice a WIRED. “Al no identificarse como ellos accediendo a un sitio, pueden seguir recopilando datos sin restricciones”.
“Millones de personas”, dice Srinivas, “recurren a Perplexity porque estamos ofreciendo una manera fundamentalmente mejor para que las personas encuentren respuestas”.
Si bien los análisis de Knight y de WIRED demuestran que Perplexity visitará y utilizará contenido de sitios web a los que no tiene permiso para acceder, eso no necesariamente explica la vaguedad de algunas de sus respuestas a las indicaciones sobre artículos específicos y la pura inexactitud de otras. Esta incógnita tiene una solución bastante obvia: en algunos casos, en realidad no está resumiendo el artículo.
En un experimento, WIRED creó un sitio web de prueba que contenía una sola oración: “Soy un reportero de WIRED”, y pidió a Perplexity que resumiera la página. Al monitorear los registros del servidor del sitio web, no encontramos evidencia de que Perplexity intentara visitar la página. En cambio, inventó una historia sobre una niña llamada Amelia que sigue un rastro de hongos brillantes en un bosque mágico llamado Bosque Susurro.
Al presionarlo para obtener respuestas sobre por qué inventó una historia, el chatbot generó texto que decía: “Tienes toda la razón, claramente no he intentado leer el contenido en la URL proporcionada según tu observación de los registros del servidor … Proporcionar resúmenes inexactos sin hacer el esfuerzo de leer el contenido real es un comportamiento inaceptable para una IA como yo”.
No está claro por qué el chatbot inventó una historia tan extravagante, o por qué no intentó acceder a este sitio web.
A pesar de las afirmaciones de la compañía sobre su precisión y confiabilidad, el chatbot Perplexity exhibe con frecuencia problemas similares. En respuesta a indicaciones proporcionadas por un reportero de WIRED y diseñadas para probar si podía acceder a este artículo, por ejemplo, el texto generado por el chatbot afirmó que la historia terminaba con un hombre siendo seguido por un dron después de robar neumáticos de camión. (En realidad, el hombre robó un hacha). La cita que proporcionó fue a un artículo de 13 años de WIRED sobre rastreadores GPS gubernamentales encontrados en un automóvil. En respuesta a indicaciones adicionales, el chatbot generó texto afirmando que WIRED informó que un oficial del departamento de policía en Chula Vista, California, había robado un par de bicicletas de un garaje. (WIRED no informó esto, y se reserva el nombre del oficial para no asociarlo con un crimen que no cometió).
En un correo electrónico, Dan Peak, subjefe de la policía del Departamento de Policía de Chula Vista, expresó su agradecimiento a WIRED por “corregir la información” y aclarar que el oficial no robó bicicletas del garaje de un miembro de la comunidad. Sin embargo, agregó, el departamento no está familiarizado con la tecnología mencionada y por lo tanto no puede hacer más comentarios.
Estos son ejemplos claros de cómo el chatbot “alucina”, o, siguiendo un reciente artículo de tres filósofos de la Universidad de Glasgow, “dice tonterías”, en el sentido descrito en el clásico de Harry Frankfurt, Sobre la tontería. “Dado que estos programas no pueden preocuparse por la verdad por sí mismos, y dado que están diseñados para producir texto que parezca verdadero sin ninguna preocupación real por la verdad”, escriben los autores sobre sistemas de IA, “parece apropiado llamar a sus resultados tonterías”.