Vida como moderador de Facebook

Viernes, 1 de marzo de 2019

Casey Newton, en un fantástico artículo para The Verge, “Las vidas secretas de los moderadores de Facebook en América”:

El video muestra a un hombre siendo asesinado. Alguien lo está apuñalando, decenas de veces, mientras él grita y ruega por su vida. El trabajo de Chloe es decirle al grupo si esta publicación debe ser eliminada. Ella sabe que la sección 13 de las normas de la comunidad de Facebook prohíbe videos que representen el asesinato de una o más personas. Cuando Chloe explica esto a la clase, escucha que su voz tiembla.

Al regresar a su asiento, Chloe siente un impulso abrumador de sollozar. Otro aprendiz ha subido para revisar la siguiente publicación, pero Chloe no puede concentrarse. Ella sale de la sala y comienza a llorar tan fuerte que le cuesta respirar.

Nadie intenta consolarla. Este es el trabajo para el que fue contratada. Y para las 1,000 personas como Chloe que moderan el contenido para Facebook en el sitio de Phoenix, y para los 15,000 revisores de contenido en todo el mundo, hoy es solo otro día en la oficina.

Simplemente una pieza impresionante de escritura e informe. Felicitaciones a Newton y The Verge por este trabajo.

Particularmente disfruté este detalle, donde los propios moderadores de Facebook son afectados por un feed algorítmico (en lugar de cronológico):

La cuarta fuente es quizás la más problemática: las herramientas internas de Facebook para distribuir información. Si bien los cambios de política oficiales generalmente llegan cada dos miércoles, la orientación incremental sobre temas en desarrollo se distribuye casi a diario. A menudo, esta orientación se publica en Workplace, la versión empresarial de Facebook que la compañía introdujo en 2016. Al igual que Facebook en sí, Workplace tiene un Feed de Noticias algorítmico que muestra publicaciones basadas en el compromiso. Durante un evento de última hora, como un tiroteo masivo, los gerentes a menudo publicarán información conflictiva sobre cómo moderar piezas individuales de contenido, que luego aparecerán desordenadas en Workplace. Seis empleados actuales y anteriores me dijeron que habían cometido errores de moderación al ver una publicación obsoleta en la parte superior de su feed. A veces, parece como si el propio producto de Facebook estuviera trabajando en su contra. La ironía no se pierde en los moderadores.

LEAR  Apaciguamiento en la Nueva Era de Trump.

La conclusión es: Si esto es lo que se necesita para moderar Facebook, es un indica de la idea básica de Facebook en sí. En teoría, suena como una idea noble permitir que todos en el mundo publiquen lo que quieran y que se conecte y se amplifique a personas afines.

En la práctica, es un desastre.

El problema no es el “todos pueden publicar lo que quieran” – esa es la naturaleza de internet, y realmente creo que ha democratizado la comunicación de una manera positiva. La parte desastrosa es el “estar conectado y amplificado a personas afines”. Esa es la diferencia entre Facebook (y en cierto grado, YouTube y Twitter) y cosas como los simples foros web. Facebook está lleno de mentiras sobre la mayoría de lo que realmente hace, pero una parte de su autodescripción que es verdadera es que realmente conecta a las personas. El problema es que algunas personas no deberían estar conectadas, y algunos mensajes no deberían ser amplificados.

Hay algo fundamentalmente incorrecto con una plataforma que —mientras opera exactamente como fue diseñada— requiere que miles de empleados aplasten sus propias almas.

Leave a Comment