La Casa Blanca está suplicando a las grandes tecnológicas que corten el grifo de los deepfakes abusivos sexualmente de la IA.

La administración del presidente Joe Biden está presionando a la industria tecnológica e instituciones financieras para cerrar un creciente mercado de imágenes sexuales abusivas realizadas con tecnología de inteligencia artificial.

Las nuevas herramientas de inteligencia artificial generativa han facilitado la transformación de la apariencia de alguien en un deepfake AI sexualmente explícito y compartir esas imágenes realistas en salas de chat o redes sociales. Las víctimas, ya sean celebridades o niños, tienen poco recurso para detenerlo.

La Casa Blanca está lanzando un llamado el jueves en busca de cooperación voluntaria por parte de las empresas, ante la ausencia de legislación federal. Al comprometerse con un conjunto de medidas específicas, los funcionarios esperan que el sector privado pueda frenar la creación, difusión y monetización de tales imágenes AI no consensuadas, incluidas imágenes explícitas de niños.

“A medida que la inteligencia artificial generativa llegaba al escenario, todos especulaban sobre cuáles serían los primeros daños reales. Y creo que tenemos la respuesta”, dijo la asesora científica principal de Biden, Arati Prabhakar, directora de la Oficina de Política Científica y Tecnológica de la Casa Blanca.

Describió a The Associated Press una “aceleración fenomenal” de imágenes no consensuadas impulsadas por herramientas de IA y dirigidas en gran medida a mujeres y niñas de una manera que puede trastornar sus vidas.

“Si eres una adolescente, si eres un niño gay, estos son problemas que la gente está experimentando en este momento”, dijo. “Hemos visto una aceleración debido a la IA generativa que se está moviendo muy rápido. Y lo más rápido que puede suceder es que las empresas den un paso adelante y asuman la responsabilidad”.

Un documento compartido con AP antes de su lanzamiento el jueves pide acciones no solo a los desarrolladores de IA, sino también a los procesadores de pagos, instituciones financieras, proveedores de servicios de computación en la nube, motores de búsqueda y los guardianes, a saber, Apple y Google, que controlan lo que llega a las tiendas de aplicaciones móviles.

LEAR  Tesla, BMW, Mercedes-Benz y más calificados como 'deficientes' en las calificaciones de pruebas de conducción automatizada.

El sector privado debería tomar medidas para “interferir en la monetización” de los abusos sexuales basados en imágenes, restringiendo el acceso al pago especialmente a sitios que anuncian imágenes explícitas de menores, dijo la administración.

Prabhakar dijo que muchas plataformas de pago e instituciones financieras ya dicen que no respaldarán los tipos de negocios que promueven imágenes abusivas.

“Pero a veces no se aplica, a veces no tienen esos términos de servicio”, dijo. “Y eso es un ejemplo de algo que se podría hacer de manera mucho más rigurosa”.

Los proveedores de servicios en la nube y las tiendas de aplicaciones móviles también podrían “restringir los servicios web y las aplicaciones móviles que se promocionan con el propósito de crear o alterar imágenes sexuales sin el consentimiento de individuos”, dice el documento.

Y ya sea generado por AI o una foto desnuda real subida a internet, los sobrevivientes deberían poder eliminarlos más fácilmente de las plataformas en línea.

La víctima más conocida de imágenes deepfake pornográficas es Taylor Swift, cuya ferviente base de fans luchó en enero cuando imágenes abusivas generadas por IA de la cantante comenzaron a circular en las redes sociales. Microsoft prometió fortalecer sus salvaguardias después de que algunas de las imágenes de Swift se rastrearon hasta su herramienta de diseño visual de IA.

Un número creciente de escuelas en EE. UU. y en otros lugares también están lidiando con desnudos deepfake generados por IA que representan a sus estudiantes. En algunos casos, se descubrió que compañeros adolescentes estaban creando imágenes manipuladas por IA y compartiéndolas con compañeros de clase.

El verano pasado, la administración de Biden facilitó compromisos voluntarios de Amazon, Google, Meta, Microsoft y otras grandes compañías tecnológicas para colocar una serie de salvaguardias en nuevos sistemas de IA antes de lanzarlos públicamente.

LEAR  Cómo el fundador de Tough Mudder, Will Dean, atrajo inversores para financiar Immersive Gamebox

Eso fue seguido por la firma por parte de Biden de una ambiciosa orden ejecutiva en octubre diseñada para guiar cómo se desarrolla la IA para que las empresas puedan obtener beneficios sin poner en peligro la seguridad pública. Aunque se centró en preocupaciones más amplias sobre la IA, incluida la seguridad nacional, hizo referencia al problema emergente de las imágenes de abuso infantil generadas por IA y la búsqueda de mejores formas de detectarlas.

Pero Biden también dijo que las salvaguardias de la IA de la administración deberían ser respaldadas por legislación. Un grupo bipartidista de senadores de EE. UU. está presionando al Congreso para gastar al menos $32 mil millones en los próximos tres años para desarrollar inteligencia artificial y financiar medidas para guiarla de manera segura, aunque en gran medida han pospuesto las llamadas para promulgar esas salvaguardias en la ley.

Alentar a las empresas a dar un paso al frente y hacer compromisos voluntarios “no cambia la necesidad subyacente de que el Congreso actúe aquí”, dijo Jennifer Klein, directora del Consejo de Política de Género de la Casa Blanca.

Las leyes de larga data ya criminalizan la creación y posesión de imágenes sexuales de niños, incluso si son falsas. Los fiscales federales presentaron cargos este mes contra un hombre de Wisconsin que dijeron que usó un popular generador de imágenes de IA, Stable Diffusion, para crear miles de imágenes realistas generadas por IA de menores involucrados en conductas sexuales. Un abogado del hombre se negó a hacer comentarios después de su audiencia de acusación el miércoles.

LEAR  2 Acciones de Fintech que son Compras Indispensables en Marzo

Pero casi no hay supervisión sobre las herramientas y servicios tecnológicos que hacen posible crear tales imágenes. Algunos se encuentran en sitios web comerciales de vuelo nocturno que revelan poca información sobre quiénes los dirigen o la tecnología en la que se basan.

El Observatorio de Internet de Stanford en diciembre dijo que encontró miles de imágenes de presunto abuso sexual infantil en la gigantesca base de datos de IA LAION, un índice de imágenes en línea y subtítulos que se ha utilizado para capacitar a los principales creadores de imágenes de IA como Stable Diffusion.

La empresa con sede en Londres, Stability AI, propietaria de las últimas versiones de Stable Diffusion, dijo esta semana que “no aprobó la liberación” del modelo anterior que supuestamente usó el hombre de Wisconsin. Tales modelos de código abierto, porque sus componentes técnicos se publican públicamente en internet, son difíciles de poner de nuevo en la botella.

Prabhakar dijo que no es solo la tecnología de IA de código abierto la que está causando daño.

“Es un problema más amplio”, dijo. “Desafortunadamente, esta es una categoría en la que muchas personas parecen estar utilizando generadores de imágenes. Y es un lugar donde hemos visto una explosión. Pero creo que no se puede dividir fácilmente en sistemas de código abierto y propietarios”.

Suscríbase al boletín Eye on AI para estar al tanto de cómo
la IA está moldeando el futuro de los negocios. Regístrese gratis.”