YouTube hat zwei Kanäle – Screen Culture und KH Studio – dauerhaft gesperrt, weil sie wiederholt gegen seine Richtlinien gegen Spam und irreführende Inhalte verstoßen haben. Laut Berichten von Deadline und CNET wurden die Plattformen geschlossen, nachdem sie KI ausgenutzt hatten, um gefälschte Filmtrailer zu generieren, die den Zuschauern vorgaukelten, sie seien echt.
Reichweite und Verstöße der Kanäle
Die beiden Kanäle, die von Indien und Georgien aus operieren, hatten zusammen 2 Millionen Abonnenten und über 1 Milliarde Aufrufe, bevor sie eingestellt wurden. YouTube hat die Werbemonetarisierung auf beiden Konten erstmals Anfang des Jahres ausgesetzt, als die irreführenden Trailer erstmals entdeckt wurden. Ein YouTube-Sprecher, Jack Malon, gab an, dass die Kanäle nach Korrekturen wieder in das YouTube-Partnerprogramm aufgenommen wurden. Sie nahmen jedoch schnell wieder betrügerische Praktiken auf.
„Diese Kanäle haben die notwendigen Korrekturen vorgenommen, um wieder in das YouTube-Partnerprogramm aufgenommen zu werden. Nach der erneuten Monetarisierung stellten sie jedoch erneut eindeutige Verstöße gegen unsere Spam- und irreführenden Metadatenrichtlinien fest und wurden daher von der Plattform ausgeschlossen.“ – Jack Malon, YouTube-Sprecher
Warum das wichtig ist
Diese Aktion unterstreicht die wachsende Herausforderung der KI-generierten Desinformation auf großen Plattformen. Während KI-Tools kreativ eingesetzt werden können, nutzen böswillige Akteure sie zunehmend, um glaubwürdige gefälschte Inhalte zu erstellen. Der Vorfall wirft Fragen hinsichtlich der Fähigkeit von YouTube auf, solches Material konsequent zu erkennen und zu entfernen, bevor es ein großes Publikum erreicht. Dies ist besonders relevant, da KI-generierte Videos realistischer werden und sich dadurch schwerer von authentischen Inhalten unterscheiden lassen.
Die rasante Verbreitung gefälschter Trailer zeigt, wie leicht Zuschauer in die Irre geführt werden können, was möglicherweise das Vertrauen in seriöse Filmwerbung schädigt. Die Reaktion von YouTube signalisiert die Bereitschaft, seine Richtlinien durchzusetzen, der Vorfall verdeutlicht aber auch die Notwendigkeit proaktiverer Erkennungsmethoden und einer schnelleren Durchsetzung irreführender, von KI generierter Inhalte.
Die Entfernung dieser Kanäle dient als Warnung für andere, die versuchen, KI für betrügerische Zwecke auf der Plattform auszunutzen.




























