X se enfrenta la desinformación en medio del conflicto entre Israel y Hamás

Redacción

X, antes Twitter, es la plataforma favorita de los usuarios para compartir información de último momento y desde el lugar de los hechos de múltiples acontecimientos. Pero entre tantas personas y ante sucesos realmente importantes, el no tener un equipo de moderación puede causarles un grave problema de confiabilidad.

Precisamente ese es el contexto por el que está pasando la nueva administración de la plataforma, la cual está pasando por su primera gran cobertura de alcance global con el conflicto entre Israel y Hamás, una violenta agrupación relacionada con Palestina. ¿Cómo la está pasando?

En los últimos días, X vio una avalancha de videos sin censura que mostraban a civiles muertos o desnudos, explosiones, protestas, personas secuestradas y niños agredidos.

Muchos de estos videos fueron publicados por cuentas que no pertenecen a los medios de comunicación y, a menudo, eran clips de otras guerras o hasta de producciones de ficción, pero que se volvieron virales debido a la gran preocupación que existe por lo que está pasando en estos territorios.

El compartir estos videos está provocando que, eso sí, una herramienta fuertemente impulsada por Musk se vuelva clave: las notas de la comunidad. Estas son escritas por los propios usuarios y tratan de advertir al resto si son o no falsas y, en este último caso, de especificar a qué pertenecen las imágenes.

Mike Rothschild, un investigador de teorías de la conspiración que ha estudiado las falsedades virales en las redes sociales, dijo a Business Standard que la noticia del ataque a Israel fue «la primera prueba real de la versión de Twitter de Elon Musk, y fracasó espectacularmente».

«Ahora es casi imposible decir qué es un hecho, qué es un rumor, qué es una teoría de la conspiración y qué es un trolling», dijo Rothschild. “Los cambios de Musk no sólo han hecho que X sea inútil durante una época de crisis. Lo han empeorado activamente».

Una cuenta de X dijo el lunes que ha habido más de 50 millones de publicaciones sobre el ataque desde que ocurrió y que «un grupo de liderazgo de toda la empresa ha evaluado este momento como una crisis que requiere el más alto nivel de respuesta». Al mismo tiempo, «X cree que, si bien es difícil, al público le interesa comprender lo que sucede en tiempo real». La compañía sugirió que los usuarios cambien su configuración para controlar qué medios ven y señaló una opción para desactivar la visibilidad de publicaciones con medios confidenciales.

En esta coyuntura, X ha actualizado sus políticas para combatir una avalancha de discursos de odio y videos falsos publicados y compartidos en su plataforma mientras la violencia que sacude a Israel y Palestina en los últimos días mató a cientos de civiles en ambos lados.

El equipo de seguridad de X dijo el martes que los usuarios pueden optar por no ver cierto contenido sensible que cree que debería permanecer disponible para el público. La plataforma también dijo que eliminó cuentas recién creadas afiliadas a Hamás, tomó medidas contra los usuarios abusivos y está potenciando las notas de la comunidad para combatir la desinformación.

La CEO de X, Linda Yaccarino, citó la situación global actual y la necesidad de centrarse en la seguridad de la plataforma, para no asistir a la conferencia WSJ Tech Live programa para la próxima semana. Aunque se pueda relacionar con el interés real de la plataforma por estar a la altura de los problemas, también podría ser para evitar preguntas incómodas como las que tuvo en la Code Conferencia de hace algunos días, donde no pudo responder preguntas sobre los planes de Musk de cobrar a los usuarios una tarifa por acceder a X o donde también los periodistas se dieron cuenta que no tenía su aplicación en su página de inicio.

Las + leídas