El Consejo Asesor de Meta ha señalado que de las cerca de 400.000 apelaciones de usuarios que recibió durante el pasado año, resolvió un total de 53 casos relacionados con cuestiones como prisioneros de guerra, dietas extremas y discursos violentos contra personas transgénero, además de continuar incidiendo en la necesidad de que Meta ofrezca un proceso de apelación más intuitivo en sus plataformas.
El Consejo Asesor de Meta es un organismo formado por un grupo amplio y diverso de expertos de todo el mundo especializados en seguridad en Internet, que opera desde el año 2020. Su función principal es ofrecer conocimientos, perspectivas y estadísticas específicas para definir el enfoque que la empresa desea promover para proteger a sus usuarios en las redes sociales.
Al respecto, este organismo ha compartido algunos de sus logros obtenidos durante el pasado año y el inicio de 2024, subrayando que, con sus recomendaciones, Meta ha continuado «mejorando la forma en que las personas viven experiencias en sus plataformas».
En este marco, tal y como ha detallado en su Informe Anual de 2023, el Consejo ha resuelto durante este periodo un total de 53 casos, de entre las 398.597 apelaciones de usuarios que recibió el pasado año, una cifra que supera la del año 2022.
Además, también ha incidido en que su influencia ha anulado la decisión original de Meta en alrededor del 90 por ciento de los casos resueltos. Estas decisiones están relacionadas con temas tratados en redes sociales como los prisioneros de guerra, las dietas extremas y los discursos violentos dirigidos a personas transgénero, ente otras cuestiones.
Igualmente, en lo que llevamos de año 2024, el Consejo ha decidido o anunciado hasta 47 casos, con lo que, desde la organización, prevén superar el total de casos resueltos del pasado año 2023.
En general, el Consejo Asesor ha puesto en valor que la compañía liderada por Mark Zuckerberg ha implementado «total o parcialmente» 75 de sus recomendaciones desde el año 2021. También ha incidido en que, actualmente, se están obteniendo avances en la implementación de otras 81 recomendaciones.
Por otra parte, el organismo ha recordado que en febrero de este año el Consejo amplió su alcance para cubrir los temas tratados en Threads. En concreto, se trata de la primera vez que han adoptado una nueva aplicación dentro de su marco de actuación.
Asimismo, ha señalado que también han visto un mayor compromiso con el trabajo de la organización por parte de los usuarios, ya que ha recibido hasta 2.800 comentarios públicos enviados para casos publicados o anunciados este año. Se trata del doble de comentarios que en 2022 y 2023 combinados.
PROCESO DE APELACIONES MÁS INTUITIVO
Continuando con el informe, el Consejo ha explicado que, durante el pasado año y el inicio de 2024, han estado trabajando con Meta para hacer que el proceso de apelaciones sea más intuitivo, a la hora de recurrir la decisión de la compañía de eliminar una publicación de un usuario.
Es decir, que si por ejemplo Facebook o Instagram deciden eliminar una publicación, debido a que consideran que se trata de un contenido inapropiado o que incumple sus políticas, pero el usuario considera que esta decisión es errónea, pueda apelar de forma más sencilla o recibir información del porqué de la decisión.
En este sentido, ha señalado que, en respuesta a sus recomendaciones, Meta lanzó en 2023 ‘Account Status’, un apartado en el que informa a las personas sobre las sanciones actuales y pasadas en su cuenta y por qué Meta las aplicó.
Además, Meta también comenzó a advertir a los usuarios en caso de que su publicación pueda ser considerada como «infractora», de manera que ofrece la oportunidad de eliminar y volver a publicar el contenido, acorde con las políticas de la compañía. Tal y como ha detallado la organización, gracias a esta medida, Meta eliminó advertencias sobre más de 100 millones de contenidos, en un periodo de doce semanas en 2023.
De la misma forma, durante este año, el Consejo ha incidido en esta cuestión y, con ello, Meta comenzó a implementar un método para que los usuarios pudiesen añadir contexto a su contenido para indicar si se ha publicado en clave de broma, si está condenando un discurso de odio o si es una publicación que busca sensibilizar a los usuarios.
Así, en caso de que un proceso automático de revisión de contenido lo considere contrario a las políticas de Meta, los usuarios pueden agregar contexto a la publicación para distinguirlas de las que sí promueven discursos de odio.
En este caso, han detallado que, en febrero de 2024, Meta recibió más de siete millones de apelaciones de personas cuyo contenido había sido eliminado según sus normas sobre incitación al odio. Así, ocho de cada diez usuarios de los que apelaron optaron por utilizar esta opción de contexto adicional.
Durante este año, la empresa matriz de Instagram y Facebook también ha comenzado a etiquetar una gama más amplia de contenido de vídeo, audio e imágenes como «hecho con IA», de cara a ofrecer más transparencia y evitar manipulaciones.
ANALIZAR LA «DEGRADACIÓN DE CONTENIDO»
Siguiendo esta línea, el Consejo Asesor ha adelantado en su informe que tiene intención de analizar lo que denomina «degradación de contenido» en las redes sociales de Meta, y que se basa en la acción de limitar la visibilidad de una publicación sin informar al usuario. Esto es comúnmente conocido como ‘shadowban’.
En concreto, esta intención de analizar la «degradación», proviene de las decisiones de Meta al respecto en algunas ocasiones, que han sido «bastante opacas», según ha señalado un portavoz del Consejo.
LIBROS BLANCOS SOBRE PROBLEMÁTICAS
La junta de Supervisión de Meta ha señalado que pretenden ser más relevantes en los debates más importantes sobre moderación de contenido. Para ello, han anunciado que planean lanzar libros blancos que se enfoquen en examinar problemas amplios que enfrentan las redes sociales en general.
Estos libros estarán basados en las experiencia adquirida a lo largo de los años por parte del Consejo. De hecho, en 2024 han publicado su primer libro blanco sobre elecciones, que incluye nueve lecciones para la industria sobre cómo abordar la información relacionada con política en redes sociales. Esto se debe a que durante 2024, «alrededor de la mitad de la población mundial» estaba citada en las urnas.
Con todo ello, el Consejo Asesor ha concluido el estudio alegando que cuatro años después de sus inicios, todavía están «abordando las cuestiones más difíciles en la moderación de contenido».
Además, han compartido su compromiso de continuar presionando a Meta para que trate a los usuarios «de manera justa». «Juntos nos esforzaremos por encontrar respuestas que mejoren las redes sociales para personas de todo el mundo», ha sentenciado la organización.