Facebook se disculpa por que su IA marcó las publicaciones del Museo de Auschwitz como ofensivas.

Demasiado Tarde Ahora

Facebook’s algorithm flaggeó 21 publicaciones del Museo de Auschwitz a principios de este mes como contrarias a sus normas de la comunidad, y ahora su empresa matriz Meta está comiendo humilde pastel.

En una publicación de Facebook, el memorial con sede en Polonia dijo que después de que el algoritmo de moderación de contenidos de Meta moviera algunas de sus publicaciones hacia abajo en el feed por extrañas afirmaciones de violar las normas de la comunidad, la empresa se disculpó, aunque no directamente, por el error.

“Enviamos incorrectamente avisos al Museo de Auschwitz de que varias piezas de contenido publicadas habían sido degradadas,” dijo un portavoz de Meta a The Telegraph. “De hecho, ese contenido no viola nuestras políticas y nunca fue degradado. Ofrecemos nuestras sinceras disculpas por el error.”

En una publicación del 12 de abril, el museo anunció las banderas erróneas y acusó a la red social de “borrado algorítmico de la historia”.

“Las publicaciones, que sirven como homenajes a víctimas individuales de Auschwitz, han sido injustamente objeto de este sistema de moderación de contenido de la plataforma y ‘movidas más abajo en el Feed’, citando razones absurdas como ‘Desnudez y Actividad Sexual Adulta,’ ‘Acoso y Hostigamiento,’ ‘Discurso de Odio,’ y ‘Incitación a la Violencia,'” dice la publicación.

De hecho, como muestran las capturas de pantalla, ninguna de las publicaciones cuestionadas tenía dicho contenido, en su lugar mostraban retratos de víctimas de Auschwitz y breves descripciones de sus vidas e identidades antes de sus asesinatos a manos de los nazis.

Imagen vía Museo de Auschwitz/Facebook

Problema Común

Aunque las banderas se han revocado desde entonces, muchos están dando la alerta sobre cómo este tipo de sistema impulsado por inteligencia artificial excluye a los humanos de la curación de mensajes importantes.

LEAR  Travis Scott arrestado en Miami por intoxicación y allanamiento.

Poco después de que el museo revelara las banderas, el ministro polaco de asuntos digitales Krzysztof Gawkowski criticó al sitio por tal error tan grave, calificándolo de “escándalo y una ilustración de problemas con la moderación automática de contenido” en una traducción de su publicación en X-anteriormente-Twitter.

La demanda de Gawkowski para que Meta se explique aún más fue eco por la Campaña Contra el Antisemitismo, que dijo en un comunicado a The Telegraph que la disculpa de la empresa no fue lo suficientemente lejos.

“Meta necesita explicar por qué su algoritmo trata la auténtica historia del Holocausto con sospecha,” dijo el representante al periódico británico, “y qué puede hacer para asegurar que estas historias sigan siendo contadas y compartidas.”

Ya es bastante malo que el algoritmo de contenido de Meta haya marcado información histórica tan importante como problemática, pero dentro del contexto de sus otros importantes problemas de moderación de IA, que incluyen traducir automáticamente “palestino” a “terrorista” y supuestamente promover contenido pedófilo, esto es un verdadero ultraje.

Más sobre la IA de Meta: La IA de Meta está diciéndole a los usuarios que tiene un hijo