Los estados se mueven para prohibir deepfake desnudos para combatir imágenes sexualmente explícitas de menores.

Caroline Mullet, una estudiante de noveno grado en Issaquah High School cerca de Seattle, fue a su primer baile de regreso a casa el otoño pasado, una celebración con temática de James Bond con mesas de blackjack a la que asistieron cientos de chicas vestidas con vestidos de fiesta.

Unas semanas más tarde, ella y otras alumnas descubrieron que un compañero de clase estaba circulando imágenes falsas de desnudos de chicas que habían asistido al baile, imágenes sexualmente explícitas que él había fabricado utilizando una aplicación de inteligencia artificial diseñada para automáticamente “desnudar” fotos de chicas y mujeres reales.

La Sra. Mullet, de 15 años, alertó a su padre, Mark, un senador demócrata del estado de Washington. Aunque ella no estaba entre las chicas en las fotos, preguntó si algo podía hacerse para ayudar a sus amigas, que se sentían “extremadamente incómodas” de que compañeros varones hubieran visto imágenes simuladas de ellas desnudas. Pronto, el Senador Mullet y un colega en la Cámara Estatal propusieron legislación para prohibir el compartir de representaciones sexualmente explícitas de menores reales generadas por inteligencia artificial.

“Odio la idea de tener que preocuparme de que esto le vuelva a suceder a cualquiera de mis amigas, mis hermanas o incluso a mí misma,” dijo la Sra. Mullet a los legisladores estatales durante una audiencia sobre el proyecto de ley en enero.

La Legislatura Estatal aprobó el proyecto de ley sin oposición. El Gobernador Jay Inslee, un Demócrata, lo firmó el mes pasado.

Los estados están en la primera línea de una forma nueva y rápidamente extendida de explotación sexual y acoso entre compañeros en las escuelas. Chicos en todo Estados Unidos han utilizado aplicaciones de “desnudificación” ampliamente disponibles para crear secretamente imágenes sexualmente explícitas de sus compañeras y luego circular los desnudos simulados a través de chats de grupo en aplicaciones como Snapchat e Instagram.

Ahora, impulsados en parte por cuentas preocupantes de chicas adolescentes como la Sra. Mullet, los legisladores federales y estatales están apresurándose a promulgar protecciones en un esfuerzo por mantenerse al día con las aplicaciones de IA explotadoras.

Desde principios del año pasado, al menos dos docenas de estados han presentado proyectos de ley para combatir imágenes sexualmente explícitas generadas por IA, conocidas como deepfakes, de menores de 18 años, según datos recopilados por el National Center for Missing & Exploited Children, una organización sin fines de lucro. Y varios estados han promulgado medidas.

LEAR  Marketing de redes sociales para empresas emergentes de comercio electrónico

Entre ellos, Dakota del Sur aprobó este año una ley que hace ilegal poseer, producir o distribuir material de abuso sexual generado por IA que represente a menores reales. El año pasado, Luisiana promulgó una ley de deepfake que criminaliza las representaciones sexualmente explícitas generadas por IA de menores.

“Sentí una urgencia al escuchar sobre estos casos y cuánto daño se estaba causando,” dijo la Representante Tina Orwall, una Demócrata que redactó la ley de deepfakes explícitos de Washington después de escuchar incidentes como el de Issaquah High.

Algunos legisladores y expertos en protección infantil dicen que estas reglas son necesarias con urgencia porque la fácil disponibilidad de aplicaciones de desnudificación de IA está permitiendo la producción y distribución masiva de imágenes falsas y gráficas que pueden circular en línea por toda la vida, amenazando la salud mental, la reputación y la seguridad física de las chicas.

“Un chico con su teléfono en el transcurso de una tarde puede victimizar a 40 chicas, chicas menores,” dijo Yiota Souras, directora legal del National Center for Missing & Exploited Children, “y luego sus imágenes están ahí afuera.”

En los últimos dos meses, incidentes de deepfake nude se han extendido en las escuelas, incluidas en Richmond, Illinois, y Beverly Hills y Laguna Beach, California.

Sin embargo, pocas leyes en Estados Unidos protegen específicamente a personas menores de 18 años de aplicaciones de IA explotadoras.

Esto se debe a que muchas leyes actuales que prohíben el material de abuso sexual infantil o la pornografía no consentida de adultos, que implica fotos o videos reales de personas reales, pueden no cubrir imágenes explícitas generadas por IA que utilizan rostros de personas reales, dijo el Representante de EE. UU. Joseph D. Morelle, un Demócrata de Nueva York.

El año pasado, presentó un proyecto de ley que haría un delito divulgar imágenes íntimas generadas por IA de adultos o menores identificables. También daría a las víctimas de deepfakes, o a los padres, el derecho a demandar a los perpetradores individuales por daños.

“Queremos que sea tan doloroso para cualquiera siquiera considerar hacerlo, porque este es un daño que simplemente no se puede deshacer,” dijo el Sr. Morelle. “Incluso si parece una broma para un chico de 15 años, esto es sumamente serio.”

LEAR  La aplicación Google Messages ahora cuenta con una función de edición de texto en versión beta

La Representante de EE. UU. Alexandria Ocasio-Cortez, otra Demócrata de Nueva York, presentó recientemente un proyecto de ley similar para permitir a las víctimas entablar demandas civiles contra los perpetradores de deepfakes.

Pero ninguno de los proyectos de ley daría explícitamente a las víctimas el derecho a demandar a los desarrolladores de aplicaciones de desnudificación de IA, un paso que los abogados litigantes dicen que ayudaría a interrumpir la producción masiva de deepfakes sexualmente explícitos.

“Se necesita legislación para detener la comercialización, que es la raíz del problema,” dijo Elizabeth Hanley, abogada en Washington que representa a víctimas en casos de agresión sexual y acoso.

El código legal de Estados Unidos prohíbe la distribución de material de abuso sexual infantil generado por computadora que represente a menores identificables en conductas sexualmente explícitas. El mes pasado, la Oficina Federal de Investigación emitió una alerta advirtiendo que dicho material ilegal incluía imágenes realistas de abuso sexual infantil generadas por IA.

Sin embargo, las representaciones falsas generadas por IA de chicas adolescentes reales sin ropa pueden no constituir “material de abuso sexual infantil”, dicen los expertos, a menos que los fiscales puedan probar que las imágenes falsas cumplen con los estándares legales de conducta sexualmente explícita o de la exhibición lasciva de genitales.

Algunos abogados defensores han intentado sacar provecho de la aparente ambigüedad legal. Un abogado que defendía a un estudiante de secundaria en una demanda de deepfake en Nueva Jersey recientemente argumentó que el tribunal no debía restringir temporalmente a su cliente, quien había creado imágenes de IA desnudas de una compañera de clase, para ver o compartir las imágenes porque no eran ni dañinas ni ilegales. Las leyes federales, argumentó el abogado en un documento judicial, no estaban diseñadas para aplicarse “a imágenes sintéticas generadas por computadora que ni siquiera incluyen partes reales del cuerpo humano.” (El demandado finalmente aceptó no oponerse a una orden de restricción sobre las imágenes.)

Ahora, los estados están trabajando para aprobar leyes para detener las imágenes explotadoras de IA. Este mes, California presentó un proyecto de ley para actualizar una prohibición estatal sobre material de abuso sexual infantil para cubrir específicamente material abusivo generado por IA.

LEAR  Kemi Badenoch probablemente sería 'profundamente escéptica' de eliminar 'imperio' de los honores británicos | Noticias de Política

Y los legisladores de Massachusetts están finalizando la legislación que criminalizaría el compartir no consensuado de imágenes explícitas, incluidos los deepfakes. También requeriría que una entidad estatal desarrolle un programa de desviación para menores que compartan imágenes explícitas para enseñarles sobre temas como “el uso responsable de la inteligencia artificial generativa”.

Las penas pueden ser severas. Bajo la nueva ley de Luisiana, cualquier persona que cree, distribuya, promocione o venda deepfakes sexualmente explícitos de menores puede enfrentar una condena mínima de cinco a diez años de prisión.

En diciembre, la policía del condado de Miami-Dade arrestó a dos chicos de secundaria por supuestamente crear y compartir imágenes falsas de IA de dos compañeras de clase, de 12 y 13 años, según documentos policiales obtenidos por The New York Times a través de una solicitud de registros públicos. Los chicos fueron acusados de delitos graves de tercer grado bajo una ley estatal de 2022 que prohíbe representaciones sexuales alteradas sin consentimiento. (La oficina del fiscal del estado para el condado de Miami-Dade dijo que no podía comentar sobre un caso abierto.)

La nueva ley de deepfake en el estado de Washington toma un enfoque diferente.

Después de enterarse del incidente en Issaquah High por su hija, el Senador Mullet se puso en contacto con la Representante Orwall, defensora de sobrevivientes de agresión sexual y ex trabajadora social. La Sra. Orwall, quien había trabajado en uno de los primeros proyectos de ley contra la pornografía de venganza del estado, redactó entonces un proyecto de ley en la Cámara para prohibir la distribución de imágenes íntimas o sexualmente explícitas generadas por IA de menores o adultos. (El Sr. Mullet, quien patrocinó el proyecto de ley en el Senado, ahora se postula para gobernador.)

Según la ley resultante, los infractores por primera vez podrían enfrentar cargos de delito menor, mientras que las personas con condenas previas por divulgar imágenes sexualmente explícitas enfrentarían cargos de felonía. La nueva ley de deepfake entra en vigencia en junio.

“No es sorprendente que estemos rezagados en las protecciones,” dijo la Sra. Orwall. “Por eso queríamos actuar tan rápidamente.”