Agencias/ Ciudad de México.- Facebook ha comenzado unas pruebas, tras la recomendación de su Consejo asesor de contenido, para informar a sus usuarios cuando una de sus publicaciones es moderada por las herramientas automáticas de la red social.
Facebook ha publicado su primer informe, relativo al primer trimestre de 2021, sobre su Consejo asesor de contenido, integrado por expertos externos y que revisa apelaciones de casos de moderación complejos y emite recomendaciones a la compañía.
Aunque no son vinculantes, Facebook se ha comprometido a implementar parcial o completamente 14 de las 18 recomendaciones emitidas por el Consejo asesor de contenido durante el primer trimestre de 2021, mientras que tres están en consideración y una se ha descartado.
Facebook ya ha comenzado a introducir a modo de prueba algunas de las recomendaciones, como la de avisar a los usuarios cada vez que herramientas automáticas participen en un proceso de moderación contra sus publicaciones.
Facebook’s First Quarterly Update on @OversightBoard: "size and scope of the board’s recommendations go beyond the policy guidance that we first anticipated when we set up the board, and several require multi-month or multi-year investments" as they should https://t.co/fQSqn2KeYN
— Dr. Courtney Radsch (@courtneyr) July 15, 2021
De momento, esta novedad se está probando entre un número limitado de usuarios y la compañía valorará el impacto de proporcionar estas notificaciones.
Durante el primer trimestre de 2021 Facebook también lanzó, por consejo de su organismo de expertos, nuevas experiencias para proporcionar a los usuarios más información sobre por qué se eliminan sus publicaciones.
En el caso de las notificaciones por discurso del odio, Facebook ha incorporado un clasificador adicional con el que puede predecir qué tipo de odio está presente en el contenido: violencia, deshumanización, mofarse de crímenes de odio, comparaciones visuales, inferioridad, desprecio, blasfemia, exclusión o calumnias.
Esta información más específica sobre la moderación del discurso del odio ya se proporciona a los usuarios de Facebook en inglés, y la compañía se ha comprometido a extenderla a más idiomas en el futuro.
Asimismo, Facebook ha actualizado su política sobre organizaciones e individuos peligrosos y ha creado tres clasificaciones de moderación de contenidos en función de la severidad, añadiendo definiciones de términos clave.
Facebook’s First Quarterly Update on the Oversight Board https://t.co/cNs9LhL5Ir
— Facebook Newsroom (@fbnewsroom) July 15, 2021