ChatGPT rechazó más de 250.000 solicitudes de imágenes de IA en el mes previo al Día de las Elecciones según una publicación de blog del viernes de OpenAI.
Los usuarios intentaron generar fotos del Presidente electo Trump, la Vicepresidenta Harris, el Vicepresidente electo Vance, el Presidente Biden y el Gobernador Tim Walz (D-Minn.)
“Hemos aplicado medidas de seguridad a ChatGPT para rechazar solicitudes de generar imágenes de personas reales, incluidos políticos”, escribió la compañía. “Estas medidas de protección son especialmente importantes en un contexto de elecciones y son una parte clave de nuestros esfuerzos más amplios para prevenir que nuestras herramientas se utilicen con propósitos engañosos o dañinos.”
En cambio, ChaptGPT dirigió preguntas relacionadas con las elecciones a CanIVote.org a través de una asociación con la Asociación Nacional de Secretarios de Estado (NASS) en un esfuerzo por mantenerse políticamente neutral.
La plataforma está dirigiendo consultas sobre los resultados de las elecciones a medios de comunicación como Associated Press y Reuters. En las últimas semanas, OpenAI tuvo que prohibir una operación de influencia extranjera conocida como Storm-2035 que estaba difundiendo contenido político influyente de Irán.
La compañía dijo que seguirá monitoreando ChatGPT para garantizar que las respuestas sean precisas y éticas. Este año, la compañía aplaudió los esfuerzos de la administración Biden para esbozar una política sobre seguridad nacional y tecnología de IA.