Imágenes falsas y sexualmente explícitas de Taylor Swift, probablemente generadas por inteligencia artificial, se propagaron rápidamente a través de plataformas de redes sociales esta semana, perturbando a los fanáticos que las vieron y reavivando los llamados de los legisladores para proteger a las mujeres y reprimir las plataformas y tecnologías que difunden dichas imágenes.
Una imagen compartida por un usuario en X, anteriormente Twitter, fue vista 47 millones de veces antes de que la cuenta fuera suspendida el jueves. X suspendió varias cuentas que publicaron las imágenes falsas de la Sra. Swift, pero las imágenes se compartieron en otras plataformas de redes sociales y continuaron propagándose a pesar de los esfuerzos de esas empresas por eliminarlas.
Aunque X dijo que estaba trabajando para eliminar las imágenes, los fanáticos de la superestrella del pop inundaron la plataforma en protesta. Publicaron palabras clave relacionadas, junto con la frase “Proteger a Taylor Swift”, en un esfuerzo por ahogar las imágenes explícitas y hacer que sean más difíciles de encontrar.
Reality Defender, una empresa de ciberseguridad centrada en detectar la A.I., determinó que las imágenes probablemente fueron creadas utilizando un modelo de difusión, una tecnología conducida por A.I. accesible a través de más de 100,000 aplicaciones y modelos públicamente disponibles, dijo Ben Colman, cofundador y director ejecutivo de la empresa.
A medida que la industria de la I.A. ha crecido, las empresas han competido por lanzar herramientas que permitan a los usuarios crear imágenes, videos, texto y grabaciones de audio con simples indicaciones. Las herramientas de la A.I. son muy populares, pero han facilitado y abaratado más que nunca la creación de los llamados deepfakes, que muestran a las personas haciendo o diciendo cosas que nunca han hecho.
Ahora, los investigadores temen que los deepfakes se estén convirtiendo en una poderosa fuerza de desinformación, permitiendo a los usuarios habituales de Internet crear imágenes desnudas no consentidas o representaciones embarazosas de candidatos políticos. La inteligencia artificial se utilizó para crear falsas llamadas automáticas del presidente Biden durante las elecciones primarias de New Hampshire, y la Sra. Swift fue destacada este mes en anuncios deepfake promocionando utensilios de cocina.
“Siempre ha sido un oscuro sustrato de Internet, la pornografía no consentida de varias formas”, dijo Oren Etzioni, profesor de informática en la Universidad de Washington que trabaja en la detección de deepfakes. “Ahora es una cepa nueva de eso que es particularmente nociva.”
“Vamos a ver un tsunami de estas imágenes explícitas generadas por la A.I. Las personas que generaron esto lo ven como un éxito”, dijo el Sr. Etzioni.
X dijo que tiene una política de tolerancia cero hacia el contenido. “Nuestros equipos están eliminando activamente todas las imágenes identificadas y tomando las medidas apropiadas contra las cuentas responsables de publicarlas”, dijo un representante en un comunicado. “Estamos monitoreando de cerca la situación para garantizar que cualquier violación adicional se aborde de inmediato y el contenido se elimine.”
Aunque muchas de las empresas que producen herramientas de A.I. generativas prohíben a sus usuarios crear imágenes explícitas, la gente encuentra formas de romper las reglas. “Es una carrera armamentista, y parece que cada vez que alguien idee una barrera, otra persona descubre cómo burlarla”, dijo el Sr. Etzioni.
Las imágenes se originaron en un canal de la aplicación de mensajería Telegram dedicado a producir dichas imágenes, según 404 Media, un sitio de noticias de tecnología. Pero los deepfakes llamaron la atención después de ser publicados en X y otras redes sociales, donde se propagaron rápidamente.
Algunos estados han restringido los deepfakes pornográficos y políticos. Pero las restricciones no han tenido un gran impacto, y no hay regulaciones federales sobre tales deepfakes, dijo el Sr. Colman. Las plataformas han intentado abordar los deepfakes pidiendo a los usuarios que los informen, pero ese método no ha funcionado, agregó. Para cuando son señalados, millones de usuarios ya los han visto.
“La pasta de dientes ya está fuera del tubo”, dijo.
La publicista de la Sra. Swift, Tree Paine, no respondió de inmediato a las solicitudes de comentarios el jueves por la noche.
Los deepfakes de la Sra. Swift provocaron llamados renovados de acción por parte de los legisladores. El representante Joe Morelle, un demócrata de Nueva York que presentó un proyecto de ley el año pasado que haría que compartir dichas imágenes sea un delito federal, dijo en X que la propagación de las imágenes era “alarmante”, y agregó: “Le está sucediendo a las mujeres en todas partes, todos los días.”
“He advertido repetidamente que la A.I. podría utilizarse para generar imágenes íntimas no consentidas”, dijo el senador Mark Warner, demócrata de Virginia y presidente del Comité de Inteligencia del Senado, sobre las imágenes en X. “Esta es una situación deplorable.”
La representante Yvette D. Clarke, demócrata de Nueva York, dijo que los avances en inteligencia artificial habían facilitado y abaratado la creación de deepfakes.
“Lo que le sucedió a Taylor Swift no es nada nuevo”, dijo.