BiiiiiiiiiipLa sécurité des utilisateurs, vraie priorité de YouTube ou fausse excuse ?

YouTube : Insultes bannies, thématiques interdites… La sécurité des utilisateurs, vraie priorité ou fausse excuse ?

BiiiiiiiiiipDébut janvier, YouTube a durci ses règles à l’égard de ses créateurs de contenus en matière de langage utilisé et de thématiques abordées
Manon Aublanc

Manon Aublanc

L'essentiel

  • Depuis début janvier, YouTube a fortement renforcé son outil de reconnaissance vocale et démonétise désormais les vidéos comprenant des insultes et des grossièretés. Certaines thématiques ont également été interdites par la plateforme.
  • Une décision qualifiée d’hypocrite par certains, qui pointent du doigt d’autres contenus haineux ou de désinformation, toujours en ligne, qui ont échappé à la modération.
  • YouTube explique sa décision par la priorité donnée à la sécurité des utilisateurs. Pour Emmanuelle Patry, spécialiste des réseaux sociaux, c’est davantage « par logique économique » que la plateforme a agi.

Fini les « p***** », les « m**** » et les « f*** », place aux bips de censure et aux bruits d’animaux. Depuis le début du mois de janvier, nombreux sont les YouTubeurs qui ont dû reprendre leurs vidéos déjà publiées pour dissimuler insultes et grossièretés. Et pour cause, leur plateforme préférée, aka YouTube, a renforcé son outil de reconnaissance vocale et démonétise désormais les vidéos contenant des « gros mots ».

En d’autres termes, ces contenus restent en ligne, mais les youtubeurs sont privés des publicités générant des revenus. De quoi s’attirer les foudres de certaines stars de la plateforme : « Sachez qu’à moins d’être le créateur le plus poli du monde, YouTube nous casse bien les c**** avec sa nouvelle règle de démonétisation de gros mots », a par exemple écrit Terracid sur Twitter, affirmant qu’un « simple "oh merde" suffit à démonétiser ». D’autant que selon ce youtubeur spécialiste des jeux vidéo, cette nouvelle réglementation est rétroactive.

Une frontière floue

Dans les faits, l’utilisation excessive de langage vulgaire était déjà sanctionnée par la plateforme auparavant. Mais l’outil d’intelligence artificielle est visiblement nettement plus sévère. Et il semblerait qu’il ne détecte pas seulement les injures. Selon Aypierre, un streameur connu pour ses vidéos sur Minecraft, certains mots, qui ne sont ni des insultes ni des grossièretés, ont aussi entraîné des démonétisations. Il évoque notamment « ricain » (pour parler des Américains) et « bled » (pour parler d’un pays).

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

Peu importe le mot, c’est un coup dur pour certains youtubeurs. Pour Terracid, par exemple, « c’est l’équivalent de plus deux ans de vidéos sorties » qui ont été démonétisées.

L’accès à ce contenu a été bloqué afin de respecter votre choix de consentement

En cliquant sur« J’accepte », vous acceptez le dépôt de cookies par des services externes et aurez ainsi accès aux contenus de nos partenaires.

Plus d’informations sur la pagePolitique de gestion des cookies

Résultat, certains créateurs de contenus ont déjà pris les devants. A l’image de Squeezie. Dans l’une de ses dernières vidéos, « Qui est l’imposteur ? » avec Vald et Naza, Lucas Hauchard - de son vrai nom - a masqué les grossièretés par des bips de censure. Le Français numéro 1 de YouTube en a également profité pour glisser un petit clin d’œil à la plateforme en faisant apparaître un petit logo « dollars » à chaque bip de censure.

Le YouTubeur en a profité pour glisser un petit tacle à la plateforme.
Le YouTubeur en a profité pour glisser un petit tacle à la plateforme.  - Capture d'écran de la vidéo de Squeezie

Sur son site, YouTube détaille longuement les consignes relatives au « langage inapproprié ». Mais entre ce qui est autorisé, ce qui est toléré et ce qui est totalement interdit, la frontière est floue. Si les mots tels que « "salope", "merde", "con", "c*nnard" ou "put***" », qualifiés de langage vulgaire, sont interdits, d’autres comme « "bordel" ou "chier" » - tolérés à la télévision - ne sont pas concernés par cette règle. Et il faut ajouter à ça le facteur temps. Certains mots sont tolérés uniquement après les quinze premières secondes de la vidéo.

Capture d'écran de la page "Support" de YouTube.
Capture d'écran de la page "Support" de YouTube.  - Capture d'écran YouTube

Une décision qui n’étonne pas Emmanuelle Patry, créatrice du programme Social Media Expert. « YouTube, c’est une entreprise américaine, elle est régie par des règles américaines. Ils n’ont pas les mêmes tolérances que nous. A la télévision américaine, la moindre insulte est bipée. C’est une manière de s’exprimer plus lisse, plus politiquement correct. Ils ont l’habitude de le faire depuis longtemps. En France, notre rapport aux insultes et aux grossièretés est vraiment différent », explique-t-elle.

« Un bon équilibre »

De son côté, si YouTube reconnaît que la « machine s’est un petit peu emballée », évoquant « des effets de bord » de l’outil de reconnaissance vocal, la plateforme affirme « travailler l’outil pour qu’il n’y ait plus de démonétisation systématique », a indiqué un porte-parole à 20 Minutes. L’idée, « ce n’est pas d’éradiquer l’intégralité des gros mots sur la plateforme, mais de trouver le bon équilibre entre un contenu haineux et le fait de pouvoir garder une certaine spontanéité et une liberté d’expression sur la plateforme », justifie cet interlocuteur, ajoutant que « ce n’est pas l’insulte en tant que telle qui est visée, mais un usage quasi exclusif et répété ». Face à la grogne de ses stars, YouTube assure « avoir pris en compte leurs feedbacks » et être « rentré en contact avec les créateurs impactés pour pouvoir leur apporter des solutions ».

Mais au pays des persona non grata de YouTube, il n’y a pas que sur les insultes et les grossièretés. L’une des vidéos de Jean-Baptiste Toussaint, fondateur de la chaîne « Tales From The Click », où il évoque la mort de Kurt Cobain, le chanteur du groupe Nirvana, a tout simplement été supprimée de la plateforme. « Ma vidéo sur Kurt Cobain a été supprimée car dedans je dis qu’il s’est… suicidé, a-t-il écrit sur son compte Twitter. Ça pose une vraie question. N’est-il désormais plus possible de raconter l’Histoire ? Faut-il la modifier en lui inventant une autre mort ? »

De son côté, YouTube avance un contenu relatif à l’automutilation, interdit sur la plateforme : « Des images de la scène de la mort de Kurt Cobain sont présentées à 7’13, notamment un cadavre ainsi que la méthode de suicide. Ces images ne sont pas autorisées par notre règlement », a répondu la plateforme sur Twitter. Si la plateforme affirme dans son règlement qu’il est « important de s’informer et de comprendre les questions de santé mentale » et qu’elle « soutient les créateurs qui partagent leur expérience en publiant des contenus où ils évoquent leur combat face à la dépression, l’automutilation ou d’autres problèmes de santé mentale », elle interdit « les contenus incitant au suicide ou à l’automutilation, destinés à choquer ou à susciter du dégoût, ou qui présentent un risque important pour les spectateurs ».

« Le risque zéro n’existe pas »

La plateforme ferait-elle le pari de la sécurité pour ses utilisateurs ? Pour Emmanuelle Patry, c’est davantage une logique économique. « L’objectif est d’en faire un espace plus clean pour la publicité. S’il y a des insultes et des propos haineux, les annonceurs ont moins envie d’y investir », explique-t-elle. Pour cette experte, il y a aussi un facteur de différenciation : « Sur les autres plateformes, il y a moins de modération, le contenu est moins propre. D’autant que sur YouTube, les annonceurs payent plus cher, car les vidéos sont plus longues et plus qualitatives », analyse-t-elle.

Mais pour certains, ce durcissement de la règle est même hypocrite. Alors que plusieurs youtubeurs ont vu leurs vidéos démonétisées après avoir laissé échapper quelques vulgarités, d’autres contenus haineux ou de désinformation échappent à la modération, récoltant des revenus publicitaires au passage. « C’est plus facile de modérer des insultes que du racisme ou de la misogynie. C’est quelque chose auquel ils peuvent s’attaquer plus facilement », estime Emmanuelle Patry. D’autant que la plateforme prône la neutralité, rappelle l’experte : « Dans certains cas, ça équivaut à prendre parti. C’est politique de s’engager contre quelque chose. »

« Le risque zéro n’existe pas », justifie YouTube, qui reconnaît que certaines vidéos « borderline » restent en ligne. « Certains connaissent très bien notre règlement, ils arrivent à la détourner, et notre règlement ne permet pas de les supprimer. Mais il y a quand même des leviers d’actions, on peut démonétiser une vidéo, limiter sa viralité ou l’empêcher de remonter sur Google », poursuit le porte-parole de la plateforme. Entre juillet et septembre 2022, ce sont 5,5 millions de chaînes et plus de 5,6 millions de vidéos qui ont été supprimées par YouTube.