Las empresas de inteligencia artificial han estado a la vanguardia del desarrollo de la tecnología transformadora. Ahora también compiten por establecer límites sobre cómo se utiliza la inteligencia artificial en un año repleto de importantes elecciones en todo el mundo.
El mes pasado, OpenAI, fabricante del chatbot ChatGPT, dijo que trabajaba para prevenir el abuso de sus herramientas en elecciones, en parte prohibiendo su uso para crear chatbots que pretendan ser personas o instituciones reales. En las últimas semanas, Google también dijo que limitaría su chatbot de inteligencia artificial, Bard, para responder a ciertas solicitudes relacionadas con elecciones y evitar inexactitudes. Y Meta, propietaria de Facebook e Instagram, prometió etiquetar mejor el contenido generado por inteligencia artificial en sus plataformas para que los votantes puedan discernir más fácilmente qué información es real y qué es falsa.
El viernes, Anthropic, otra destacada empresa de inteligencia artificial, se sumó a sus pares al prohibir que su tecnología se aplique a campañas políticas o cabildeo. En una publicación de blog, la empresa, que hace un chatbot llamado Claude, dijo que advertiría o suspendería a cualquier usuario que violara sus reglas. Añadió que estaba utilizando herramientas entrenadas para detectar automáticamente y bloquear la desinformación y operaciones de influencia.
“La historia de la implementación de la inteligencia artificial también ha estado llena de sorpresas y efectos inesperados”, dijo la empresa. “Esperamos que el 2024 vea usos sorprendentes de sistemas de inteligencia artificial, usos que no fueron anticipados por sus propios desarrolladores”.
Los esfuerzos son parte de la presión de las empresas de inteligencia artificial por controlar una tecnología que popularizaron en un momento en que miles de millones de personas acuden a las urnas. Según Anchor Change, una empresa de consultoría, se esperan al menos 83 elecciones en todo el mundo este año, la mayor concentración en los próximos 24 años. En las últimas semanas, la gente de Taiwán, Pakistán e Indonesia ha votado, y la India, la mayor democracia del mundo, está programada para celebrar sus elecciones generales en la primavera.
Qué tan efectivas serán las restricciones en las herramientas de inteligencia artificial no está claro, especialmente a medida que las empresas de tecnología siguen adelante con tecnologías cada vez más sofisticadas. El jueves, OpenAI presentó Sora, una tecnología que puede generar videos realistas al instante. Tales herramientas podrían usarse para producir texto, sonidos e imágenes en campañas políticas, difuminando la realidad y la ficción y planteando preguntas sobre si los votantes pueden distinguir qué contenido es real.
El contenido generado por inteligencia artificial ha aparecido en campañas políticas de Estados Unidos, lo que ha suscitado críticas regulatorias y legales. Algunos legisladores estatales están redactando leyes para regular el contenido político generado por inteligencia artificial.
“Los actores maliciosos están utilizando voces generadas por inteligencia artificial en llamadas robocall no solicitadas para extorsionar a familiares vulnerables, imitar celebridades y desinformar a los votantes”, dijo Jessica Rosenworcel, presidenta de la F.C.C., en su momento.
Las herramientas de inteligencia artificial también han creado representaciones engañosas o engañosas de políticos y temas políticos en Argentina, Australia, Gran Bretaña y Canadá. La semana pasada, el ex Primer Ministro Imran Khan, cuyo partido ganó la mayor cantidad de escaños en la elección de Pakistán, utilizó una voz de inteligencia artificial para declarar la victoria mientras estaba en prisión.
En uno de los ciclos electorales más trascendentales en la memoria, la desinformación y las decepciones que la inteligencia artificial puede crear podrían ser devastadoras para la democracia, dijeron los expertos.
“Estamos atrasados en esto”, dijo Oren Etzioni, profesor de la Universidad de Washington especializado en inteligencia artificial y fundador de True Media, una organización sin fines de lucro que trabaja para identificar la desinformación en línea en campañas políticas. “Necesitamos herramientas para responder a esto en tiempo real”.
Anthropic dijo en su anuncio del viernes que estaba planeando pruebas para identificar cómo su chatbot Claude podría producir contenido sesgado o engañoso relacionado con candidatos políticos, temas políticos y administración electoral. Estas pruebas de “red team”, que a menudo se utilizan para superar las salvaguardias de una tecnología para identificar mejor sus vulnerabilidades, también explorarán cómo responde la inteligencia artificial a consultas dañinas, como solicitudes de tácticas de supresión de votantes.
En las próximas semanas, Anthropic también está implementando una prueba que tiene como objetivo redirigir a los usuarios estadounidenses que tengan consultas relacionadas con el voto a fuentes de información autorizadas, como TurboVote de Democracy Works, un grupo sin fines de lucro no partidista. La empresa dijo que su modelo de inteligencia artificial no se entrenó con la suficiente frecuencia como para proporcionar de manera confiable hechos en tiempo real sobre elecciones específicas.
De manera similar, OpenAI dijo el mes pasado que planeaba señalar a las personas hacia información de votación a través de ChatGPT, además de etiquetar imágenes generadas por inteligencia artificial.
“Como cualquier nueva tecnología, estas herramientas vienen con beneficios y desafíos”, dijo OpenAI en una publicación de blog. “También son sin precedentes, y seguiremos evolucionando nuestro enfoque a medida que aprendamos más sobre cómo se utilizan nuestras herramientas”.
(The New York Times demandó a OpenAI y a su socio, Microsoft, en diciembre, alegando infracción de derechos de autor de contenido noticioso relacionado con sistemas de inteligencia artificial.)
Synthesia, una startup con un generador de video de inteligencia artificial que ha sido vinculado a campañas de desinformación, también prohíbe el uso de la tecnología para contenido “tipo noticias”, incluido material falso, polarizador, divisivo o engañoso. La empresa ha mejorado los sistemas que utiliza para detectar el mal uso de su tecnología, dijo Alexandru Voica, director de asuntos corporativos y políticas de Synthesia.
Stability AI, una startup con una herramienta generadora de imágenes, dijo que prohibía el uso de su tecnología para fines ilegales o antiéticos, trabajaba para bloquear la generación de imágenes inseguras y aplicaba una marca de agua imperceptible a todas las imágenes.
Las mayores empresas de tecnología también han intervenido. La semana pasada, Meta dijo que estaba colaborando con otras empresas en normas tecnológicas para ayudar a reconocer cuándo el contenido es generado con inteligencia artificial. Antes de las elecciones parlamentarias de la Unión Europea en junio, TikTok dijo en una publicación de blog el miércoles que prohibiría contenido potencialmente engañoso manipulado y requeriría a los usuarios etiquetar creaciones realistas de inteligencia artificial.
Google dijo en diciembre que requeriría a los creadores de videos en YouTube y a todos los anunciantes electorales divulgar contenido digitalmente alterado o generado. La empresa dijo que se estaba preparando para las elecciones de 2024 restringiendo sus herramientas de inteligencia artificial, como Bard, para que no respondieran a ciertas consultas relacionadas con elecciones.
“Como cualquier tecnología emergente, la inteligencia artificial presenta nuevas oportunidades así como desafíos”, dijo Google. La inteligencia artificial puede ayudar a combatir el abuso, agregó la compañía, “pero también nos estamos preparando para cómo puede cambiar el panorama de la desinformación”.