TikTok censure l’expression «Black Lives Matter» mais pas «White Supremacy»

Le réseau social TikTok, spécialisé dans les courtes vidéos, a une fois de plus été pris en flagrant délit de censure ou de signalement injuste de contenus. Des utilisateurs de la plateforme ont en effet découvert que le mot «black» utilisé dans des expressions comme «Black Lives Matter», «supporting black voices» (soutenir les voix des Noirs), et «supporting black people» (soutenir les personnes noires), a été signalé comme du contenu inapproprié.

Dans le même temps, un utilisateur a démontré dans une vidéo qu’afficher son soutien aux néonazis et aux suprémacistes blancs était possible, indique Futurism. Ce n’est pas la première erreur de TikTok en matière de (mauvaise) modération de contenus. L’application semble traverser le même cycle de manière étonnamment régulière: des groupes marginalisés sont censurés, des utilisateurs connus attirent l’attention des médias sur cette question, et TikTok prétend ensuite que ce n’était qu’une erreur technique, avant de publier rapidement une correction.

«Il y a des schémas qui se répètent et ils devraient savoir ce qu’il faut chercher»

Par le passé, TikTok a ainsi bloqué des termes tels que «Asian women» (femmes asiatiques) et «intersex» (intersexe), privant ainsi les membres de ces communautés d’une plateforme pour parler de leurs problèmes. Et il y a quelques semaines, le réseau social de la génération Z a appliqué par erreur ce qui paraissait être un filtre de beauté obligatoire, qui créait une mâchoire plus fine pour certains utilisateurs Android.

«Les discours de haine et le fait de parler des discours de haine peuvent sembler très similaires pour un algorithme», déclare Casey Fiesler, spécialisée dans l’éthique de la technologie à l’Université du Colorado. Très active sur TikTok, elle affirme que le défilé de problèmes sur l’application est bien réel. C’est une question difficile à régler, concède-t-elle. Mais ce serait beaucoup plus facile si TikTok et les autres plateformes qui rencontrent ce genre de difficultés cherchaient à apprendre des communautés qui utilisent leurs applications.

Car l’algorithme de TikTok n’identifierait pas certains contenus comme étant inappropriés s’il avait été mieux entraîné. «Je suis souvent plus tolérante que la plupart des gens concernant les défis de ces applis, ajoute Casey Fiesler. Mais même moi je suis un peu déconcertée. À un moment donné, il y a des schémas qui se répètent, et ils devraient savoir ce qu’il faut chercher.»