YouTube : pédophilie et brand safety, le casse tête insoluble ?
Corentin : Le 21 février dernier, de nombreux annonceurs ont décidé de retirer leurs publicités de Youtube, la plateforme de partage de vidéo filiale de Google, après la découverte de réseaux pédophiles clandestins se partageant certaines vidéos et en monétisant d’autres. Un problème récurrent pour Youtube, mais aussi pour ses homologues géants du web, qui soulève une nouvelle la question du “brand safety” et de la protection des mineurs, comme nous l’explique Elodie Carcolse de la Réclame.
Elodie : Salut Corentin ! En effet, Disney, Nestlé, McDonald’s ou encore Epic Games, l’éditeur du jeu vidéo Fortnite, plusieurs annonceurs ont suspendu leurs campagnes publicitaires sur la plateforme YouTube après les révélations de plusieurs médias américains, dont Wired, et la diffusion d’une vidéo du YouTubeur américain Matt Watson. Ces différentes enquêtes ont montré comment des pédophiles s’échangaient des vidéos parfaitement innocentes de jeunes enfants sur YouTube via les commentaires.
Corentin : Oui des vidéos mises en ligne par des parents la plupart du temps, qui n’imaginent pas une seconde ce qui peut s’opérer par la suite.
Elodie : Exactement, sur ces vidéos on peut par exemple voir des enfants s’amuser, danser, jouer dans l’eau, parfois en sous-vêtements ou en tenue d’été. mais c’est dans les commentaires de ces vidéos que tout se trame. Des pédophiles se partagent les timecodes précis où les images montrées deviennent intéressantes pour eux : c’est à dire, comme le rapporte Wired : “lorsque leurs parties génitales sont dévoilés, lorsque ces enfants, des petites filles pour la plupart, font un grand écart ou soulève leur haut et dévoilent leur mamelons”. En juin dernier, le youtubeur le Roi des rats avait déjà dénoncé ce problème dans une vidéo où il expliquait comment des pédophiles échangaient des vidéos de petites filles et ce depuis une dizaine d’années au moins :
Extrait 2’29-2’39 et 6’25-6’45 https://www.youtube.com/watch?reload=9&v=MpQ-wM18Wuo
Elodie : C’est glaçant. Certains se partagent ainsi vidéos pédopornographiques dans les commentaires, des liens vers des comptes Whatsapp, se donnent des conseils pour récupérer les vidéos avant qu’elles ne soient supprimées. D’autres encore complimentent ces jeunes filles pour obtenir leurs comptes sur d’autres réseaux sociaux et les contactent en privé pour leur demander des vidéos, mais en justaucorps cette fois-ci.
Corentin : Oui et avec l’algorithme de recommandation de YouTube, ce sont des vidéos similaires en accès quasi illimité qui leurs sont suggérées.
Elodie : Exactement. Du contenu souvent monétisés par des marques grand public, comme celles précédemment citées. Certains de ces pédophiles téléchargent également des vidéos qui ne leur appartiennent pas pour les intégrer sur leurs propres chaines YT. Des vidéos parfois monétisées, ce qui a provoqué un mouvement de boycott de la part des marques. Ces annonceurs ignorent en effet que leurs publicités se retrouvent sur ces chaînes et se voient partager par des pédophiles. Une situation qui remet une nouvelle fois sur le tapis un autre problème récurrent sur la plateforme : le “brand safety”.
Corentin : Hum brand safety, tu nous explique ?
Elodie : concrètement en matière de publicité en ligne, et selon la définition consacrée, le terme de brand safety désigne les pratiques permettant de s’assurer que la marque d’un annonceur n’apparaisse pas dans des environnements qui pourraient présenter un risque pour son image. En l’occurrence ici, se retrouver sur des vidéos monétisées par des pédophiles. Surtout que ces vidéos génèrent souvent des millions de vues. Et donc autant d’argent gagnés par le ou les propriétaires de ces chaînes. En 2016 déjà, Google avait fait scandale pour avoir monétisé des vidéos de propagande terroriste sur Youtube, on parlait alors de milliers de vues seulement.
Corentin : Mais alors que fait YouTube ?
Elodie : Eh bien c’est la question que tout le monde se pose, étant donné que ces problèmes de modération sont régulièrement remis sur la table. Comme l’explique Le Roi des Rats dans sa vidéos, des réseaux de pédophiles ont été débusqués seulement un an après la création de la plateforme en 2005. Et des commentaires sont régulièrement supprimés sous ces vidéos, suggérant que YouTube connaît bien le problème. Alors, pourquoi ne pas avoir supprimé les vidéos incriminées ou entrepris des démarches plus musclées pour protéger ces jeunes enfants ces dernières années ?
Corentin : D’autant que la plateforme a grossi à vitesse grand V et doit analyser des milliers de contenus et commentaires.
Elodie : Exactement. Pour sa défense, Alphabet, la maison mère de Google, a assuré jeudi 21 février avoir immédiatement pris les mesures nécessaires, en supprimant plus de 400 chaînes et des centaines de comptes utilisateurs, en signalant toute activité illégale aux autorités et commentaires litigieux au Centre national pour les enfants disparus et exploités. Tout en rappelant que les moins de 13 ans n’ont pas le droit de posséder un compte YouTube. Bon, il y a comme un air de déjà-vu vous en conviendrez.
A ceci près que Google a pris, je cite, “des mesures supplémentaires par excès de prudence” :
La firme à désactivé les commentaires sur des dizaines de millions de vidéos incluant des mineurs et qui risquent de faire l’objet de commentaires prédateurs.
Corentin : Oui, comme l’explique Le Roi des Rats dans sa vidéo, le problème est connu de YouTube depuis 2006 au moins, et un précédent boycott avait eu lieu en 2017 après les révélations du Times et Buzzfedd News France concernant des vidéos de propagande. YouTube avait alors notamment promis de bloquer les commentaires sur les vidéos soupçonnées d’intéresser des pédophiles. Mais en juin 2018, bis repetita avec la vidéo du Roi des Rats donc.
Elodie : C’est ça, et comme Google tire plus de 90% de ses bénéfices des revenus publicitaires il y a péril en la demeure. Le géant de la publicité en ligne a contacté les représentants de plusieurs grandes sociétés ainsi qu’une quarantaine de marques. Même avec ses investissements dans de nouveaux outils et le recrutement d’experts issus des anciennes forces vives du FBI pour surveiller ce qui se passe sur sa plateforme, les défaillances sont quasi inévitables. Un problème qui pourrait vite se retrouver sur Tik Tok, le nouveau réseau social chouchou des pré-ado. Nous évoquions d’ailleurs l’hypersexualisation des filles sur la plateforme dans une précédente chronique disponible sur le brunch, avec tout ce que cela engendre.
Quoi qu’il en soit, et comme à chaque polémique, les marques s’en vont, pour marquer le coup dirons nous, mais reviennent une fois les gages de bonne foi annoncés. Youtube s’est d’ores et déjà engagées à que les vidéos mettant en avant des enfants ne soient plus éligibles à la monétisation. Il était temps. Une action qui pourrait toucher certaines chaînes familiales dont c’est l’activité principale.
Corentin : Ça ne sent pas très bon pour Studio bubble tea, en effet ! L’histoire nous dira en tout cas si ces mesures seront suivies d’effet. Merci Elodie pour cet éclairage et à la prochaine !
Prédateurs d’enfants sur YouTube : la plateforme siffle enfin la fin de la récré
Il aura fallu la pression des annonceurs pour que YouTube règle son problème larvé de pédophilie. Eh oui, certains prédateurs s’échangeaient en toute impunité des liens vers des vidéos de jeunes enfants dans les commentaires de chaines dites « familiales ». Une affaire pourtant dénoncée depuis longtemps déjà par de nombreux créateurs de contenus et observateurs. On plonge dans cet aspect glauque de la plateforme avec Élodie Carcolse de « La Réclame ».
0:00
6:21
Vous êtes sur une page de podcast. En cas de difficulté pour écouter ce document sonore, vous pouvez consulter sa retranscription rapide ci-dessous.