TikTok, la famosa plataforma de vídeos de 60 segundos, ocultaba los vídeos de usuarios con discapacidad, síndrome de Down o de la comunidad LGTB, según ha descubierto el medio alemán Netzpolitik.
Los moderadores consideraban que estos usuarios tenían características que les hacían susceptibles a sufrir acoso de forma online y clasificaban sus vídeos de tal forma que el algoritmo de TikTok, pensado para viralizar el contenido, limitaba su alcance y su visibilidad.
La política de TikTok limitaba los vídeos de personas con discapacidad, pero también de usuarios de la comunidad LGTB, con autismo o que fomentaban la filosofía bodypositive con vídeos etiquetados como #fat (o #gordo). Incluso llegaba a incluir en esa categoría los vídeos de creadores con alguna mancha de nacimiento reconocible.
El contenido de esos autores entraba en la categoría Auto R, pensada para marcar solo algunos vídeos que la aplicación consideraba menos apropiados y que en estos casos se aplicaba por defecto a usuarios concretos.
Las publicaciones dentro de esa categoría tienen un límite máximo de visualizaciones, su visibilidad puede quedar restringida a un solo país y nunca pasan al feed del contenido viral.
Las fuentes de Netzpolitik aseguran que esas directrices se seguían en septiembre de este año, pero un portavoz de la plataforma ha declarado ante The Verge que ya no se guían por esas políticas. "Al principio, en respuesta a un aumento del acoso en la aplicación, implementamos una política contundente y temporal. Aunque la intención era buena, el enfoque era erróneo y hace tiempo que hemos cambiado la política anterior en favor de políticas anti acoso más matizadas y de medidas de protección en la aplicación".
No es la primera vez que se cuestiona el sistema de censura de TikTok, cuyo origen chino le ha granjeado muchas acusaciones de implementar las restricciones propias del Gobierno, eliminando vídeos que critican la política china o hablan de las violaciones de derechos humanos que se cometen en el país.