Meta público las cifras del contenido violento que ha retirado de Facebook

Únete a nuestra comunidad en Telegram

Meta compartió cifras sobre contenido violento de Facebook, que casi ha duplicado la cantidad de contenido violento que durante el primer trimestre de 2022. La compañía retiró 21,7 millones de piezas de contenido por romper sus reglas sobre violencia e incitación a la violencia, un aumento de 12,4 millones en el trimestre anterior.

Los derribos también aumentaron durante el trimestre en Instagram, pero solo ligeramente. La compañía eliminó 2,7 millones de publicaciones por romper sus reglas en torno a la violencia, frente a los 2,6 millones del último trimestre de 2021.

La compañía compartió las nuevas métricas como parte de su informe trimestral de cumplimiento de estándares comunitarios. En el informe, Meta atribuyó el aumento en los derribos a una «expansión de nuestra tecnología de detección proactiva». Más del 98 por ciento de las publicaciones que eliminó fueron eliminadas antes de que los usuarios las informaran, según la compañía.

El informe llega en un momento en que Meta se enfrenta al escrutinio por su tiempo de respuesta tras el reciente tiroteo masivo en Buffalo, Nueva York. Las grabaciones en vivo del tiroteo que circularon en Facebook y otras plataformas y compañías han tardado en retirar todas las nuevas copias. Una copia publicada en Facebook fue compartida más de 46,000 veces antes de que fuera eliminada más de nueve horas después de su publicación original, según The Washington Post.

Al igual que con tiroteos masivos anteriores como Christchurch, la capacidad de las personas para descargar y hacer rápidamente nuevas copias de grabaciones en vivo ha puesto a prueba la capacidad de Meta para hacer cumplir sus políticas.

«Uno de los desafíos que vemos a través de eventos como este es que las personas crean nuevo contenido, nuevas versiones, nuevos enlaces externos para tratar de evadir nuestras políticas [y] evadir nuestra aplicación», dijo Guy Rosen, vicepresidente de Integridad de Meta, durante una llamada con periodistas. «Como en cualquier incidente, vamos a seguir aprendiendo a refinar nuestros procesos, refinar nuestros sistemas para asegurarnos de que podemos detectar que podemos eliminar el contenido infractor más rápidamente en el futuro».

Meta también compartió estadísticas actualizadas sobre el contenido que elimina por error. Por contenido violento, la compañía dijo que finalmente restauró 756,000 publicaciones de Facebook que fueron apeladas después de que fueron eliminadas inicialmente. La compañía dijo que también está «trabajando en el desarrollo de mediciones robustas en torno a los errores», pero no explicó lo que mediría más allá de las restauraciones del contenido apelado.

Últimas noticias