OpenAI dice que grupos rusos e israelíes usaron sus herramientas para difundir información falsa

OpenAI el jueves lanzó su primer informe sobre cómo se utilizan sus herramientas de inteligencia artificial para operaciones de influencia encubierta, revelando que la compañía ha interrumpido campañas de desinformación originarias de Rusia, China, Israel e Irán.

Actores malintencionados utilizaron los modelos de IA generativa de la compañía para crear y publicar contenido de propaganda en plataformas de redes sociales, y para traducir su contenido a diferentes idiomas. Ninguna de las campañas ganó tracción o alcanzó audiencias grandes, según el informe.

Relacionado: Se lanza un premio de $10 millones para el equipo que realmente pueda comunicarse con los animales

A medida que la IA generativa se ha convertido en una industria en auge, ha habido una gran preocupación entre investigadores y legisladores sobre su potencial para aumentar la cantidad y calidad de la desinformación en línea. Empresas de inteligencia artificial como OpenAI, que produce ChatGPT, han intentado, con resultados mixtos, calmar estas preocupaciones y poner límites a su tecnología.

El informe de 39 páginas de OpenAI es uno de los más detallados de una empresa de inteligencia artificial sobre el uso de su software para la propaganda. OpenAI afirmó que sus investigadores encontraron y prohibieron cuentas asociadas con cinco operaciones encubiertas de influencia en los últimos tres meses, que provenían de una mezcla de actores estatales y privados.

LEAR  El amor de China por los vehículos eléctricos nacionales pone en peligro a los fabricantes de automóviles extranjeros, según la consultora AlixPartners.