La Junta de Supervisión de Meta dice que las eliminaciones automatizadas de imágenes de Facebook están rotas

Únete a nuestra comunidad en Telegram

La Junta de Supervisión de Meta dice que la compañía debería ser más cuidadosa con las herramientas de moderación automatizadas, criticándola por eliminar una caricatura que representa la violencia policial en Colombia. La decisión llegó cuando la junta asumió una serie de nuevos casos, incluida una pregunta sobre un video de agresión sexual en la India.

La Junta de Supervisión, un organismo semi-independiente financiado por Meta, consideró una caricatura política que representa a policías colombianos golpeando a un hombre con porras. La caricatura se agregó en algún momento a la base de datos media Matching Service de Meta, lo que significaba que el sistema de Meta la marcaba automáticamente para su eliminación cuando los usuarios la publicaban. Pero cuando los usuarios vieron sus publicaciones eliminadas, comenzaron a apelar la decisión y ganaron. La Junta de Supervisión dice que 215 personas apelaron la remoción, y el 98 por ciento de las apelaciones tuvieron éxito. Meta, sin embargo, no eliminó la caricatura de su base de datos hasta que la Junta de Supervisión tomó el caso.

La automatización puede amplificar los efectos de una mala llamada de moderación

Ese hecho preocupó a la Junta de Supervisión. «Mediante el uso de sistemas automatizados para eliminar contenido, los bancos de Media Matching Service pueden amplificar el impacto de las decisiones incorrectas de los revisores humanos individuales», dice la decisión. Un sistema más receptivo podría haber solucionado el problema activando una revisión del banco cuando las publicaciones individuales con la imagen fueron apeladas con éxito. De lo contrario, las imágenes prohibidas en base a una mala decisión podrían permanecer prohibidas en secreto indefinidamente, incluso cuando los revisores individuales lleguen más tarde a una conclusión diferente.

Es uno de los múltiples casos de la Junta de Supervisión que cuestionan si la moderación automatizada de Facebook e Instagram está calibrada para evitar eliminaciones demasiado agresivas, y como en casos anteriores, la Junta de Supervisión quiere más métodos de, bueno, supervisión. «La junta está particularmente preocupada de que Meta no mida la precisión de los bancos de Media Matching Service para políticas de contenido específicas», señala. «Sin estos datos, que son cruciales para mejorar el funcionamiento de estos bancos, la compañía no puede decir si esta tecnología funciona de manera más efectiva para algunos estándares comunitarios que para otros».

Le está pidiendo a Meta que publique las tasas de error para el contenido que se incluye erróneamente en el banco coincidente. Como de costumbre para las recomendaciones de política de la junta, Meta debe responder a la sugerencia, pero puede elegir si implementarla.

Los castigos de Meta por elogiar a los grupos extremistas son «poco claros y severos»

La Junta de Supervisión también abordó uno de los numerosos incidentes que ponen a prueba la línea de Facebook entre apoyar a los grupos extremistas e informar sobre ellos. Determinó que Meta se había equivocado al eliminar una publicación de Facebook en urdu que informaba sobre la reapertura de escuelas y universidades por parte de los talibanes para mujeres y niñas. La regla prohíbe el «elogio» de grupos como los talibanes, y la publicación fue eliminada. Fue remitido después de una apelación a una cola de moderación especial, pero nunca se revisó realmente: la Junta de Supervisión señala que en ese momento, Facebook tenía menos de 50 revisores de habla urdu asignados a la cola.

El caso, dice la junta, «puede indicar un problema más amplio» con las reglas sobre organizaciones peligrosas. Después de varios incidentes, dice que la política parece poco clara tanto para los usuarios como para los moderadores, y los castigos por romper la regla son «poco claros y severos». Está pidiendo una definición más clara y estrecha de «elogiar» a las personas peligrosas y dedicar más moderadores a la cola de revisión.

Mientras tanto, la Junta de Supervisión está buscando comentarios públicos sobre dos casos: el primero se refiere a un video de un tiroteo masivo en una iglesia nigeriana, que fue prohibido por violar la política de «contenido violento y gráfico» de Meta, pero que puede haber tenido un valor noticioso que debería haber justificado mantenerlo. Del mismo modo, está interesado en si se debe permitir que un video que muestre agresión sexual en la India genere conciencia sobre la violencia basada en la casta y el género o si su representación gráfica de tocamientos no consensuados es demasiado dañina inherentemente. La ventana de comentarios para ambos casos se cerrará el 29 de septiembre.

Últimas noticias