Después de vivir lo impensable, siete familias francesas están demandando a TikTok. Alegan que la plataforma expuso a sus hijos adolescentes a contenido perjudicial que creen contribuyó a los suicidios de dos jóvenes de 15 años.
El caso, presentado en el tribunal judicial de Créteil, es la primera demanda colectiva de este tipo en Europa, según el abogado de las familias.
Franceinfo informa que Laure Boutron-Marmion, una abogada penal especializada en defensa juvenil, confirmó que presentó un caso ante el tribunal de Créteil en nombre de siete familias, todas las cuales reportaron el mismo problema: un deterioro en la salud física y mental de sus hijos. Señaló que, trágicamente, algunos de estos niños ya no están aquí para hablar por sí mismos, con dos de los siete adolescentes habiéndose quitado la vida. Estas familias están unidas a través del colectivo Algos Victima, un centro de apoyo legal y judicial para víctimas y sus familias, con un enfoque en hacer responsables a las empresas de redes sociales. Acusan a TikTok y su algoritmo de exponer a sus hijos a contenido peligroso, incluidos numerosos videos que promueven el suicidio, autolesiones y trastornos alimenticios.
Boutron-Marmion afirmó que el caso incluye una documentación sustancial y evidencia concreta que respalda la historia de cada familia. Esta nueva acción legal se basa en una denuncia penal anterior presentada en 2023 por los padres de Marie, una de las adolescentes que se quitó la vida.
La abogada criticó la respuesta de TikTok al problema, argumentando que las plataformas de redes sociales, especialmente TikTok, ya no pueden evadir responsabilidades afirmando que el contenido no es propio. Enfatizó que TikTok está “al timón” del contenido que ven los usuarios, señalando que la versión china de la plataforma está significativamente más moderada, y que allí no aparece contenido perjudicial.
Boutron-Marmion explicó que el “feed” de TikTok y los algoritmos precisos adaptan el contenido específicamente para cada usuario. Destacó esto como el problema central de TikTok, señalando que la plataforma empuja contenido a los usuarios en lugar de que estos lo busquen activamente. Según ella, estudios indican que el contenido relacionado con el suicidio, autolesiones y temas similares aparece en tan solo dos minutos de uso, lo cual considera un problema importante. Concluyó que TikTok tiene un control total sobre su algoritmo y no puede evadir responsabilidades.
TikTok está bajo fuego
Crédito de la imagen – PhoneArena
Dejando de lado el hecho de que el gobierno de EE. UU. tomó medidas para obligar a ByteDance a vender su proyecto de TikTok a una parte con sede en EE. UU. o ser prohibido en EE. UU., la aplicación de redes sociales de videos cortos está bajo fuego de todos lados.
Texas presentó recientemente una demanda contra TikTok por violar una nueva ley de privacidad infantil, un movimiento que refleja la escrutinio continuo que enfrenta la plataforma por parte de legisladores y gobiernos.
Actualmente, fiscales generales de 14 estados y el Distrito de Columbia también iniciaron demandas separadas contra TikTok, alegando daños a la salud mental de los niños y violaciones de la Ley de Protección de la Privacidad en Línea de los Niños (COPPA).
La fiscal general de Nueva York, Letitia James, enfatizó que las características adictivas de TikTok, como los videos que se reproducen automáticamente y los filtros de belleza, contribuyen a los problemas de salud mental de los jóvenes.
Los críticos argumentan que las medidas de seguridad infantil de TikTok son ineficaces, ya que los niños pueden pasar fácilmente por alto la verificación de edad. El fiscal general de California, Rob Bonta, expresó que las afirmaciones de la plataforma sobre herramientas de seguridad infantil están exageradas. Las demandas buscan sanciones y daños para los usuarios perjudicados por estas prácticas.
En respuestas anteriores, TikTok afirmó que sus salvaguardias son efectivas y elimina activamente a los usuarios menores de edad.