TikTok se convirtió en la más reciente compañía de redes sociales en anunciar un plan para mitigar el contenido engañoso y violento durante la grave crisis de seguridad desatada en medio del conflicto entre Israel y Hamas.
La tecnológica se suma a Meta y X (antes Twitter) para tomar cartas en el asunto, en medio de los agudos cuestionamientos por parte de importantes autoridades internacionales que rechazan el actual tratamiento que se le está dando a la desinformación que se propaga en estas plataformas.
La empresa aseguró en un comunicado que se opone al terrorismo, resaltando su consternación “por los horrendos actos de terrorismo ocurridos en Israel la semana pasada” y destacando que “también estamos profundamente entristecidos por la intensificación de la crisis humanitaria que se desarrolla en Gaza.”
Es por ello que anunció la movilización de importantes recursos y personal para ayudar a mantener la seguridad de la comunidad y la integridad de la plataforma. TikTok también reiteró su compromiso con la transparencia, la libre expresión y la defensa de los derechos humanos.
La compañía también confirmó que, a la fecha, se han eliminado más de 500.000 videos y cerrado 8000 transmisiones en vivo en la región donde se está desarrollando la guerra.
Como parte de su proceso de gestión de crisis, la plataforma recomendó siempre estar vigilante con los contenidos publicados en redes y recordó que siempre es muy útil consultar la información con fuentes verificadas, como es el caso de Infobae, que es un medio confiable para estar al día con las más recientes actualizaciones sobre el conflicto.
Además, TikTok también puso en marcha las siguientes medidas:
– Medida 1: Fue puesto en operación un centro de comando que reúna a miembros clave del equipo global de 40,000 profesionales de seguridad de la aplicación. Esto con el objetivo de ser más ágiles en la forma en que se tomaba acción para responder una crisis en rápida evolución.
– Medida 2: Se desarrollaron sistemas proactivos de detección automatizada en tiempo real para detectar y eliminar automáticamente contenido gráfico y violento, para que ni los moderadores ni los miembros de la comunidad estén expuestos a este tipo de publicaciones.
– Medida 3: Se incorporarán más moderadores que hablen árabe y hebreo para revisar contenido relacionado con los eventos que tienen lugar en el conflicto actual. También se implementarán recursos de bienestar adicionales para los moderadores de primera línea durante este tiempo.
– Medida 4: TikTok seguirá aplicando sus políticas contra la violencia, el odio y la desinformación dañina para eliminar cuentas y contenido infractor. Por ejemplo, ya se eliminó contenido que apoya los ataques o se burla de las víctimas afectadas por la violencia. Además, si se publica contenido que muestra a una persona que ha sido tomada como rehén, se protegerá su dignidad y e identidad.
La plataforma advierte que no tolerará los intentos de incitar a la violencia o difundir ideologías de odio con contenido que elogia a organizaciones e individuos violentos. También se bloquearán hashtags que promueven la violencia o que infringen nuestras reglas.
Medida 5: Los usuarios ahora también deberían ver pantallas de suscripción sobre contenido que podría ser impactante o gráfico, esto se hace para evitar que las personas lo vean inesperadamente.
Medida 6: Se implementaron ajustes temporales a las políticas que rigen las funciones de TikTok en un esfuerzo por evitar de manera proactiva que se utilicen para comportamientos violentos o de odio en la región. Por ejemplo, se agregaron restricciones adicionales a la elegibilidad de la herramienta LIVE, en un intento de limitar la difusión de información errónea.
También se está cooperando con los organismos encargados de hacer cumplir la ley a nivel mundial, así como con expertos de la industria y la sociedad civil, como Tech Against Terrorism.