Dans une note publiée par le Financial Time, la compagnie Google a expliqué comment elle comptait intensifier la lutte contre l’extrémisme sur Youtube. L’avocat général de Google, Kent Walker, a détaillé ce projet en quatre étapes.
{"type":"Pave-Haut2-Desktop"}
Multiplier les moyens, cibler les utilisateurs
Tout d’abord, Youtube compte augmenter les moyens technologiques dédiés au tri des vidéos en fonction de leur contenu. Afin de pouvoir mieux distinguer les vidéos de propagande terroriste des vidéos d’informations, Youtube va augmenter le budget alloué aux machines analysant leur contenu.
Deuxième étape, la compagnie compte intensifier la traque de vidéos extrémistes dans le cadre de son programme Youtube Trusted Flagger, permettant aux utilisateurs de « flagger » les vidéos. Google a annoncé ajouter 50 ONG expertes à sa liste de collaborateurs comprenant déjà 63 organisations anti-extrémisme.
La troisième étape, un peu vague, consiste à durcir la politique de tolérance de Youtube. Même si elles ne violent pas explicitement le règlement, les vidéos « au contenu provocateur, religieux extrémiste ou raciste » seront accompagnées d’un avertissement. Elles ne pourront plus être commentées par les utilisateurs ou faire l’objet d’une rémunération.
Enfin, Google compte participer aux efforts de dé-radicalisation en ciblant les utilisateurs dans le cadre de son programme Creators for Change. La compagnie explique vouloir profiter de Youtube pour identifier les potentielles recrues de groupes terroristes comme Daech et les rediriger vers des vidéos proposant un discours adapté anti-radicalisation.
Travailler en équipe
Google a également annoncé vouloir créer un forum international de discussion afin de travailler avec les compagnies Microsoft, Twitter ou Facebook. Avant de conclure « en travaillant collectivement, ces changements pourront faire une différence« .
{"type":"Banniere-Basse"}