La nouvelle politique de Youtube entrera en vigueur le 15 juillet 2025 et pas qu’aux Etats-Unis, en France aussi. YouTube ne va pas purement et simplement démonétiser toutes les vidéos utilisant de l’IA. Ce que la plateforme a dans son collimateur, c’est ce qu’elle appelle le contenu répétitif, inauthentique et produit en masse. 

Une vidéo IA inauthentique, c’est quoi?

Vous êtes toutes et tous déjà tombés au moins une fois sur une vidéo ou un short Youtube avec une voix générique et robotique diffusée par-dessus des clips aléatoires récupérés ici et là. Une vidéo bas de gamme qui n’a aucune valeur ajoutée. En anglais, on parle d’AI slop. C’est ça que Youtube semble vouloir attaquer en insistant beaucoup sur la notion d’authenticité.

« Attaquer » est un bien grand mot puisque Youtube prétend, sur son site officiel, avoir « toujours exigé que le contenu monétisé soit original et authentique. » Dans une vidéo explicative, le responsable éditorial de Youtube, Rene Ritchie, affime même qu’il s’agit ici d’une « mise à jour mineure des règles de longue date du Programme Partenaire YouTube, destinée à mieux repérer les contenus produits en masse ou répétitifs. » 

Curieux hasard ou non, cette vidéo de Rene Ritchie ressemble d’ailleurs beaucoup à de l’AI slop à cause du doublage automatique assez approximatif de Youtube.

Youtube minimise le problème de l’IA

Youtube semble vouloir minimiser la prolifération de contenus bas de gamme générés par IA sur sa plateforme. Une prolifération qui va de paire avec la monétisation, principale motivation derrière la production de ce genre de contenus. Youtube aurait donc tout intérêt à préciser ce qu’il considère comme étant du contenu inauthentique, produit en masse et répétitif.

Cette chaîne Youtube « Bloo » aux 2,6 millions d’abonnés et repérée via CNBC récemment correspond plutôt à cette définition, par exemple. Sur cette chaîne, aucun humain n’est présent à l’écran. C’est un avatar virtuel maladroitement animé qui s’adresse au public avec une voix IA doublée en plusieurs langues. La chaîne spamme au moins une vidéo par jour. L’avatar vous hurle dessus sans jamais faire de pause pour respirer, le tout par-dessus des vidéos de gameplay sur le jeu vidéo populaire du moment (GTA 5, Roblox ou autre). C’est typiquement le genre de vidéos conçues pour des enfants, voire jeunes ados afin de les rendre addict en les abrutissant.

Empfohlener redaktioneller Inhalt
Dieser externe Inhalt von YouTube wurde von der nextpit Redaktion ausgewählt und ergänzt den Artikel. Du hast die Wahl, ob du diesen Inhalt laden möchtest.
Externen Inhalt erlauben
Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.

Si Youtube excluait déjà, comme il l’a affirmé, ce genre de contenus de la monétisation, pourquoi n’est-ce pas le cas ici? Et si cela devient le cas à partir du 15 juillet prochain, Youtube va-t-il faire la distinction entre ce genre de contenus et les vidéos de Vtubers en général? Ces créateurs et créatrices de contenu qui ne se montrent en vidéo que par l’intermédiaire d’un avatar virtuel? Les Vtubers peuvent produire du contenu original, avec ou sans IA. Mais dans le cadre de l’exemple de « Bloo » ci-dessus, la seule intervention humaine dans le processus de production sont les doigts du ou des créateurs lorsqu’ils entrent leurs prompts.

Les vidéos IA ont plus qu’un problème d’authenticité

Le fait que Youtube fasse la distinction entre du contenu IA authentique et pas authentique a du sens. Certes, la notion d’authenticité selon Youtube reste très floue. Mais ne pas mettre tous les contenus créés ou augmentés par IA dans le même sac est une bonne chose. Personnellement, j’adore suivre une série intitulée « Presidents play Mass Effect » de la chaîne PrimeRadiancy

Ces vidéos mettent en scène Barack Obama, Joe Biden et Donald Trump comme s’ils discutaient sur Discord tout en jouant aux jeux vidéo de la saga Mass Effect. Le script est humoristique et on sent qu’un humain est à l’écriture. Le gameplay est lui-aussi réalisé par un humain. Au début de chaque vidéo, on a un disclaimer précisant qu’il s’agit de voix IA. Bref, ce genre de contenu peut être considéré comme étant authentique. 

Mais au-delà de l’authenticité et de l’originalité, la prolifération des vidéos IA pose un autre problème et pas des moindres. De plus en plus fréquemment, je tombe sur des vidéos racistes ou sexistes entièrement réalisées par une IA. Ces vidéos sont souvent présentées comme des sketches et il faut quelques secondes pour se rendre compte du message nocif ainsi propagé.

Sans vous la partager ici, l’exemple qui m’a le plus frappé montrait un couple blanc assis sur le porche devant leur maison. Et soudain, un homme noir court à travers leur jardin avec une télé sous le bras et disparaît au loin. La femme s’écrie alors « je crois que c’est à moi », faisant référence à la télé supposément volée par l’homme noir qui courait. Le mari intervient alors en disant « mais non, chérie, le notre est dans le jardin en pointant du doigt vers un autre homme noir, accroupi en train d’arracher des herbes. » 

Empfohlener redaktioneller Inhalt
Dieser externe Inhalt von YouTube wurde von der nextpit Redaktion ausgewählt und ergänzt den Artikel. Du hast die Wahl, ob du diesen Inhalt laden möchtest.
Externen Inhalt erlauben
Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.

Quand l’IA sert à créer des mèmes racistes, il est déjà trop tard

Évidemment, Youtube ne va pas se poser la question de savoir si ce contenu est authentique ou non avant de le démonétiser. Le racisme et l’incitation à la haine sont contraires au règlement de Youtube. Mais cela illustre à quel point la création de contenus purement IA est devenue accessible. Tellement accessible que des outils de pointe de génération de vidéo par IA sont détournés pour faire du simple shitpost.

Le média Deutsche Welle a consacré une émission à ce sujet, mais sur TikTok et non Youtube.De nombreuses de ces vidéos avaient été créées via l’outil Veo 3 de Google. Même si YouTube minimise l’importance de cette mise à jour en la présentant comme un simple ‘ajustement mineur » ou une clarification, la réalité est tout autre.

Laisser proliférer ce type de contenu et permettre à leurs créateurs d’en tirer profit pourrait, à terme, nuire à la réputation et à la valeur de la plateforme. Le calme apparent Youtube et le manque de précision quant à la notion d’authenticité trahissent une volonté de frapper fort. 

Et vous, que pensez-vous de ce changement de politique de Youtube? Avez-vous aussi constaté une prolifération de contenus IA bas de gamme? Avez-vous du mal à distinguer les contenus de type « AI slop » de vrais contenus authentiques? Une vidéo générée par IA ou utilisant des éléments générés par IA peut-elle être authentique, selon vous?