Les méthodes douteuses de TikTok pour la modération de contenu sont pointées du doigt dans deux enquêtes publiées très récemment par “Forbes” et “Insider”.
Vous avez certainement déjà entendu parler des modérateur·trices de contenu, ou “nettoyeurs du web”. Ces personnes grâce à qui nous ne sommes pas confronté·es au quotidien aux pires horreurs que produit l’humanité : vidéos de pédopornographie, de viols, de suicides, d’actes de sadisme envers des animaux… De nombreuses plaintes visent TikTok et ses méthodes quasi illégales de formation à la modération. Le géant chinois, qui compte plus d’un milliard de visiteur·teuses mensuel·les, emploie environ 10 000 modérateur·trices surchargé·es face au nombre de publications postées sur la plateforme.
{"type":"Pave-Haut2-Desktop"}
Dans une enquête publiée par Forbes le 5 août dernier, d’ancien·nes modérateur·trices TikTok ont révélé avoir été formé·es à l’aide d’images d’abus sexuels sur des enfants, regroupées au sein d’un document “largement non-sécurisé” leur servant de guide de référence. L’objectif de l’entreprise : apprendre à ses employé·es à repérer le pire du pire publié dans l’application. Des centaines d’employé·es pourraient même librement accéder à ce document alors qu’iels ne sont pas tou·tes habilité·es à modérer ce type de contenu. “Les parents ne savent pas qu’on a en possession ces images, ces vidéos, ces traumatismes, ces crimes. S’ils le savaient, je suis certaine qu’ils brûleraient TikTok”, s’exprime Whitney Turner, ancienne modératrice TikTok qui a quitté son travail à El Paso en raison de son exposition quotidienne à ces images. Face à la désinvolture avec laquelle ces données ont été gérées, celle-ci avait signalé l’affaire à la justice – affaire toujours en cours aujourd’hui.
“Dans ce travail, vous devenez progressivement fou”
Le site d’information économique Insider a quant à lui publié le 1er août une enquête consacrée aux modérateur·trices basé·es au Moyen-Orient et en Afrique du Nord, qui ont fait part de leur exploitation et de leur détresse, et dénoncé le manque de soutien psychologique proposé par l’entreprise. Pour moins de 3 dollars de l’heure et traité·es comme des robots, les modérateur·trices doivent en effet “passer en revue des vidéos montrant des suicides ou des scènes de cruauté envers les animaux” : une mise à l’épreuve de sa propre sensibilité, qui peut aller très loin. Wisam, ancien modérateur de contenu, déclare : “Le mal, dans ce travail, est que vous devenez progressivement fou – sans même vous en rendre compte. Vous pensez que ce n’est pas grave, mais cela vous affecte quand même.”
{"type":"Banniere-Basse"}