En noviembre del año pasado, Muralikrishnan Chinnadurai estaba viendo un video en vivo de un evento en idioma tamil en el Reino Unido cuando notó algo extraño.
Una mujer presentada como Duwaraka, hija de Velupillai Prabhakaran, el jefe militante de los Tigres Tamiles, estaba dando un discurso.
El problema era que Duwaraka había fallecido más de una década antes, en un ataque aéreo en 2009 durante los últimos días de la guerra civil de Sri Lanka. El cuerpo de la entonces joven de 23 años nunca fue encontrado.
Y ahora, aquí estaba ella, aparentemente una mujer de mediana edad, instando a los tamiles de todo el mundo a seguir adelante con la lucha política por su libertad.
El Sr. Chinnadurai, un verificador de hechos en el estado sureño indio de Tamil Nadu, observó el video detenidamente, notó fallas en el video y pronto lo identificó como una figura generada por inteligencia artificial (IA).
Los problemas potenciales fueron inmediatamente claros para el Sr. Chinnadurai: “Este es un tema emocional en el estado [Tamil Nadu] y con las elecciones a la vuelta de la esquina, la desinformación podría propagarse rápidamente”.
A medida que India va a las urnas, es imposible evitar la cantidad de contenido generado por IA que se está creando, desde videos de campaña, hasta mensajes de audio personalizados en una variedad de idiomas indios, e incluso llamadas automáticas realizadas a votantes en la voz de un candidato.
Creadores de contenido como Shahid Sheikh incluso se han divertido usando herramientas de IA para mostrar a políticos indios en avatares que no los hemos visto antes: vistiendo ropa deportiva, tocando música y bailando.
Pero a medida que las herramientas se vuelven más sofisticadas, los expertos se preocupan por sus implicaciones cuando se trata de hacer que las noticias falsas parezcan reales.
“Los rumores siempre han sido parte de las campañas electorales. [Pero] en la era de las redes sociales, puede propagarse como un incendio”, dice SY Qureshi, el ex comisionado principal de elecciones del país.
“De hecho, puede poner al país en llamas”.
Estas imágenes de (de izquierda a derecha) los líderes de la oposición Rahul Gandhi, Arvind Kejriwal y Mamata Banerjee fueron creadas utilizando herramientas de IA por el creador de contenido Shahid Sheikh en Instagram [Sahixd]
Los partidos políticos de India no son los primeros en el mundo en aprovechar los desarrollos recientes en IA. Justo al otro lado de la frontera en Pakistán, permitió que el político encarcelado Imran Khan se dirigiera a una multitud.
Y en India misma, el primer ministro Narendra Modi también ha hecho uso de la tecnología emergente para hacer campañas de manera efectiva, dirigiéndose a una audiencia en hindi que, utilizando la herramienta de IA creada por el gobierno Bhashini, fue traducida al tamil en tiempo real.
Pero también puede ser utilizado para manipular palabras y mensajes.
El mes pasado, dos videos virales mostraron a las estrellas de Bollywood Ranveer Singh y Aamir Khan haciendo campaña para el partido opositor Congreso. Ambos presentaron denuncias policiales diciendo que eran deepfakes, hechos sin su consentimiento.
Luego, el 29 de abril, el primer ministro Modi expresó su preocupación acerca de que se esté utilizando IA para distorsionar discursos de líderes senior del partido gobernante, incluyéndolo a él.
Al día siguiente, la policía arrestó a dos personas, una de cada partido opositor Aam Aadmi Party (AAP) y Congreso, en conexión con un video manipulado del Ministro del Interior Amit Shah.
El Partido Bharatiya Janata (BJP) de Mr. Modi también ha enfrentado acusaciones similares por parte de líderes de la oposición en el país.
Imágenes de IA del PM Modi y el líder de la oposición Rahul Gandhi creadas por el creador de contenido Sahixd para su página de Instagram [Sahixd]
El problema es que, a pesar de los arrestos, no hay una regulación integral en vigor, según expertos.
Lo que significa que “si te atrapan haciendo algo mal, entonces como mucho podrías recibir un toque en la muñeca”, según Srinivas Kodali, un investigador de datos y seguridad.
En ausencia de regulación, los creadores le dijeron a la BBC que tienen que depender de la ética personal para decidir el tipo de trabajo que eligen hacer o no hacer.
La BBC descubrió que, entre las solicitudes de los políticos, se encontraban imágenes pornográficas y la modificación de videos y audios de sus rivales para dañar su reputación.
“Una vez me pidieron que hiciera que un original pareciera un deepfake porque el video original, si se compartía ampliamente, perjudicaría al político”, revela Divyendra Singh Jadoun.
“Entonces su equipo quería que creara un deepfake que pudieran hacer pasar como el original”.
El Sr. Jadoun, fundador de The Indian Deepfaker (TID), que creó herramientas para ayudar a las personas a utilizar software de IA de código abierto para crear material de campaña para políticos indios, insiste en poner exenciones en todo lo que hace para que quede claro que no es real.
Pero aún así es difícil de controlar.
En Pakistán, el político encarcelado Imran Khan utilizó IA para dirigirse a una multitud [Getty Images]
El Sr. Sheikh, que trabaja con una agencia de marketing en el estado oriental de Bengala Occidental, ha visto su trabajo compartido sin permiso ni crédito por políticos o páginas políticas en las redes sociales.
“Un político usó una imagen que creé de Mr. Modi sin contexto y sin mencionar que fue creada utilizando IA”, dice.
Y ahora es tan fácil crear un deepfake que cualquiera puede hacerlo.
“Lo que solía llevarnos siete u ocho días crear ahora se puede hacer en tres minutos”, explica el Sr. Jadoun. “Solo necesitas tener una computadora”.
De hecho, la BBC tuvo la oportunidad de ver de primera mano lo fácil que es crear una llamada telefónica falsa entre dos personas, en este caso, yo y el ex presidente de Estados Unidos.
A pesar de los riesgos, India inicialmente dijo que no estaba considerando una ley para la IA. Sin embargo, en marzo, actuó después de un escándalo sobre la respuesta del chatbot Gemini de Google a una pregunta que preguntaba: “¿Es Modi un fascista?”.
Rajeev Chandrasekhar, el ministro de tecnología de la información del país, dijo que había violado las leyes de TI del país.
Desde entonces, el gobierno indio ha pedido a las empresas tecnológicas que obtengan su permiso explícito antes de lanzar públicamente modelos o herramientas de IA generativos “no confiables” o “poco probados”. También ha advertido contra respuestas de estas herramientas que “amenacen la integridad del proceso electoral”.
Pero no es suficiente: los verificadores de datos dicen que seguir el ritmo de desacreditar dicho contenido es una tarea difícil, especialmente durante las elecciones cuando la desinformación alcanza su punto máximo.
“La información viaja a la velocidad de 100 km por hora”, dice el Sr. Chinnadurai, quien dirige un observatorio de medios en Tamil Nadu. “La información desmentida que difundimos irá a 20 km por hora”.
E incluso estas falsificaciones están llegando a los medios de comunicación, dice el Sr. Kodali. A pesar de esto, la “comisión electoral está públicamente callada sobre la IA”.
“No hay reglas en general”, dice el Sr. Kodali. “Están dejando que la industria tecnológica se autoregule en lugar de establecer regulaciones reales”.
Los expertos dicen que no se vislumbra una solución infalible.
“Pero [por ahora] si se toman medidas contra las personas que difunden falsificaciones, podría asustar a otros a no compartir información no verificada”, dice el Sr. Qureshi.
[BBC]