YouTube a interdit définitivement deux chaînes – Screen Culture et KH Studio – pour violation répétée de ses politiques contre le spam et les contenus trompeurs. Les plateformes ont été fermées après avoir exploité l’IA pour générer de fausses bandes-annonces de films qui faisaient croire aux spectateurs qu’elles étaient réelles, selon les rapports de Deadline et CNET.
Portée et violations des chaînes
Les deux chaînes, opérant en Inde et en Géorgie, avaient rassemblé au total 2 millions d’abonnés et plus de 1 milliard de vues avant d’être supprimées. YouTube a suspendu pour la première fois la monétisation des publicités sur les deux comptes plus tôt cette année, lorsque les bandes-annonces trompeuses ont été initialement détectées. Un porte-parole de YouTube, Jack Malon, a déclaré que les chaînes avaient été réadmises au programme partenaire YouTube après avoir apporté des corrections. Cependant, ils ont rapidement repris des pratiques trompeuses.
“Ces chaînes ont apporté les corrections nécessaires pour être réadmises dans le Programme Partenaire YouTube. Cependant, une fois de nouveau monétisées, elles sont revenues à des violations flagrantes de nos politiques en matière de spam et de métadonnées trompeuses et, par conséquent, elles ont été supprimées de la plate-forme. ” – Jack Malon, porte-parole de YouTube
Pourquoi c’est important
Cette action souligne le défi croissant de la désinformation générée par l’IA sur les principales plateformes. Même si les outils d’IA peuvent être utilisés de manière créative, les acteurs malveillants les exploitent de plus en plus pour créer de faux contenus crédibles. L’incident soulève des questions sur la capacité de YouTube à détecter et supprimer systématiquement ce type de contenu avant qu’il n’atteigne un large public. Ceci est particulièrement pertinent à mesure que les vidéos générées par l’IA deviennent plus réalistes, ce qui les rend plus difficiles à distinguer du contenu authentique.
La propagation rapide de fausses bandes-annonces démontre à quel point les spectateurs peuvent être facilement induits en erreur, ce qui peut nuire à la confiance dans la promotion légitime des films. La réponse de YouTube témoigne d’une volonté d’appliquer ses politiques, mais l’incident souligne également la nécessité de méthodes de détection plus proactives et d’une application plus rapide des contenus trompeurs générés par l’IA.
La suppression de ces chaînes sert d’avertissement à ceux qui tentent d’exploiter l’IA à des fins frauduleuses sur la plateforme.






























