La plataforma de vídeos asegura que lo hizo para evitar casos de acoso y que las instrucciones ya no están en vigo
TikTok no permite la difusión de material pornográfico, cierra las cuentas de quienes aparezcan con armas (que no sean de juguete), bloquea por un día las cuentas que publican imágenes de comportamientos peligrosos, como bailar con un cuchillo en la mano. Como cualquiera de las grandes redes sociales, la plataforma china prohíbe ciertos contenidos que es razonable vetar, sobre todo, en un foro que alberga más de 800 millones de usuarios mensuales, el 41% de ellos, con edades comprendidas entre los 16 y los 24 años.
Pero también ha tomado medidas para borrar o evitar la promoción de las imágenes compartidas por usuarios con cuerpos “anormales”, “expresiones faciales feas”, falta de dientes, personas mayores con “demasiadas arrugas”, cicatrices evidentes, deformidades… Así lo revelan las guías con las que instruía a sus moderadores y que ha publicado esta semana el medio estadounidense The Intercept. Los documentos, que también incluían la recomendación de borrar y limitar el alcance de escenarios rurales, con decorados antiguos, desordenados y deteriorados, integran una estrategia de moderación de contenidos que ya ha sido puestas en cuestión en ocasiones anteriores. A finales del año pasado trascendió su política de limitar el alcance de las publicaciones de usuarios con discapacidades visibles.
TikTok ha quitado hierro al asunto, pero sin dar demasiados detalles: “Las Normas de la Comunidad que se mencionan parecen ser en gran parte iguales o similares a las que The Guardian ya mostró el año pasado en un reportaje y que fueron eliminadas antes de que se publicara”, explica el comunicado oficial que la plataforma ha enviado a EL PAÍS, en referencia al citado ejemplo de las imágenes personas con discapacidades. “La mayoría de las normas que se presentan en The Intercept ya no se utilizan, o en algunos casos parecen no haber estado nunca en vigor”
Proteger discriminando
Tanto en esta ocasión como cuando trascendieron sus políticas de moderación ante contenidos generados por usuarios con discapacidad, TikTok afirma que la intención no era dañar sino proteger a los colectivos de potenciales situaciones de acoso. Sin embargo, la supuesta intención de evitar el bullying no aparece en los documentos, que solo citan la necesidad de mostrar contenidos “atractivos” y “sofisticados” en sus canales de recomendación. “Aplicar esos criterios en espacios en los que participan millones de usuarios afecta a la visión que estos tengan de la realidad. En especial si ese filtro actúa sin que seamos conscientes de ello y en un contexto de desconocimiento tanto del contenido eliminado como de las razones reales que han llevado a esa moderación”, advierte Silvia Martínez, Profesora de la Universitat Oberta de Catalunya.
“Aunque fuera verdad lo de prevenir el bullying, que no lo creo; no lo haces dando menos visibilidad porque esto es discriminatorio”, señala Ariadna Matamoros-Fernández, investigadora del centro de investigación de tecnologías digitales de la Universidad de Tecnología de Queensland (QUT), en Australia. “Cuando cambias los procesos de moderación de contenido, también cambias las culturas y dejas a usuarios que normalmente están discriminados con más discriminación, discriminas a los que ya están discriminados en esta sociedad”. Según Fernández Matamoros, ese comportamiento no es exclusivo de TikTok. “Las grandes redes sociales buscan tener una plataforma que sea business friendly y family friendly. Todo muy heteronormativo, de cara a una familia y a estándares de belleza tradicionales, porque esto es lo que va a atraer anunciantes”, explica.
TikTok también ha sido acusada de estar al servicio del Gobierno de Pekín. En diciembre de 2019 el ejército de EE UU prohibió a sus soldados tener cuentas en la red social, con el pretexto de que su uso podría representar una amenaza para la seguridad nacional. “Los vínculos de TikTok con el Gobierno chino no son oficiales, pero por las normas de moderación de contenido que se van distribuyendo se ve que hay reglas politizadas o que benefician a Pekín”, explica la investigadora de QUT. No en vano, el director general de la compañía ya ha hecho público su compromiso de “profundizar en la cooperación” con el Partido Comunista, según afirmó en una carta abierta publicada en 2018.
Estas polémicas no son exclusivas de TikTok. Pasó con Tumblr hace dos años, cuando un cambio en las políticas de moderación, abordado con la intención de limitar publicaciones de contenido adulto, acabó invisibilizando las expresiones del colectivo LGBTQ, para el que siempre había sido un espacio seguro. Y ocurrió también con Facebook, un año antes, cuando se reveló que su algoritmo para detectar discurso de odio protegía a los hombres blancos en detrimento de otros colectivos más vulnerables. “Se debería insistir en la necesidad de que las plataformas realicen un ejercicio de transparencia para poder conocer realmente qué condiciones de uso aplican y qué normas de moderación emplean. En paralelo, la educación mediática se vuelve incluso más necesaria para poder desarrollar las competencias que nos permitan tener un espíritu crítico, entender cómo funcionan estos entornos de comunicación y comprender los efectos de esos filtros y medidas”, razona Martínez.
Días antes de las últimas revelaciones relativas a los criterios estéticos de TikTok, la división estadounidense de la propia plataforma anunció la futura creación de un “centro de transparencia” para la moderación y las prácticas de datos. Esta entidad, explican, está llamada a ofrecer a expertos externos la posibilidad de “ver directamente cómo los equipo de TikTok afrontan la diaria y difícil, pero críticamente importante tarea de moderar el contenido de la plataforma”. A esta novedad se suma otra comunicada este mismo miércoles, dos días después de que los documentos salieran a la luz. La red social ha formado un consejo asesor de contenidos integrado por expertos externos en tecnología, derecho, salud mental y comunicación.