Digital
Bild

getty/youtube/montage

YouTube hat ein Problem mit Inhalten, die Pädophilen gefallen

Nach zwanzig Minuten voll mit verstörenden Wahrheiten rauft sich der Youtuber "MattsWhatItIs" mit hochrotem Kopf die Haare. "Ich wollte nicht emotional werden", sagt er zu sich selbst und den Zuschauern seines Videos: "Aber ich kann nicht glauben, dass diese Postings existieren." Der junge US-Amerikaner hat gerade einen Weg auf YouTube gefunden, der ihn tief in eine Welt der Pädophilie führt.

Dabei spült der YouTube-Algorithmus Matts Video-Empfehlungen voll mit kinderpornografischen Inhalten. Und offenbart ein System, das innerhalb von Minuten für alle funktioniert, die ihr persönliches YouTube in eine Art „Soft-Kinder-Porno“-Plattform verwandeln wollen.

Matt liefert damit einen weiteren Beweis dafür, dass die Google-Tochter es offenbar nicht schafft, die Jüngsten unter ihren Usern vor Missbrauch zu schützen. Oder wie Matt es ausdrückt: "Wie kann es sein, dass so etwas in der Öffentlichkeit bereits seit zwei Jahren stattfindet und trotzdem nichts passiert? Ich will nichts mehr mit dieser Plattform zu tun haben."

YouTube hat ein Problem

Wir bei Watson haben Matts Recherche-Weg rekonstruiert und sind zu sehr ähnlichen Ergebnissen gelangt. Wir erstellten dazu nur einen neuen unbeschriebenen Google-Account und meldeten uns damit bei YouTube an. (Das diente dazu, klare Ergebnisse zu bekommen)

Als nächstes suchten wir nach bestimmten aktuellen Trend-Suchbegriffen. Ohne ins Detail zu gehen: Es geht um Influencer-Videos, bei denen YouTuberInnen Neuheiten präsentieren. Auch deutsche Video-Stars machen mit, ihre Videos sammeln zum Teil hunderttausende Klicks.

Das wirkliche Problem taucht erst auf, wenn man sich über die "Empfohlenes Video"-Funktion weiterklickt. In zwei Schritten kamen wir bei der Recherche auf eine erste Seite, auf der ein offensichtlich minderjähriges Kind bei dem neuen Trend mitmacht. Noch einen Klick weiter ging es dann gar nicht länger um den Trend, sondern um Kinder in verschiedensten Posen. Sämtliche vorgeschlagene Videos zeigten auf einmal mehr oder weniger leicht bekleidete Kinder und Jugendliche etwa bei Gymnastik oder im Kinderzimmer.

Die Account-Namen der Uploader tragen dabei oft kryptische Namen, laufen in vielen Fällen auch in russischer Sprache. Es handelt sich eindeutig nicht um die Urheber der Videos selbst, sondern um sogenanntes "Republishing", bei dem fremde Inhalte durch anonyme Accounts einfach neu hochgeladen werden.

Wir haben diesen Vorgang auch mit mehren Challenges und Trends ausprobiert, bei denen immer auch Jugendliche und Kinder mitmachten. Im vielen Fällen sind wir in nur wenigen Klicks in jenem Bereich gelandet, in dem sich offenkundig pädophile User abreagieren.

Nicht die ersten Kinder-Probleme für YouTube

Bereits Ende 2017 sorgte der YouTube-Algorithmus für Negativschlagzeilen. Damals hatte unter anderem der Blogger James Bridle auf ein Problem hingewiesen, das für heftige Kritik an der Video-Plattform sorgte.

Damals tauchten tausendfach und automatisch generierte Kinder-Videos mit verstörenden Inhalten auf YouTube auf. Sie hatten das Ziel, ohne viel Aufwand eine möglichst große Reichweite zu erzeugen, um mit der geschalteten Werbung Geld zu verdienen. Sie liefen unter Schlagwörtern, die Kinder bei der Suche nach ihren Lieblings-Cartoons wie "Spider Man" oder "Peppa Wutz" in die Suchmaske eingaben.

Das Problem: In den wahllos zusammengeschnittenen Videos tauchten auch immer wieder gewalttätige und sexuell anstößige Inhalte auf. Löschte YouTube einen Clip, uploadeten neue Accounts an anderer Stelle sofort neue Videos. Menschliche Mitarbeiter kommen da nicht mehr hinterher, selbst wenn User ein schlimmes Video melden.

Kritiker damals betonten, dass das Werbe-Konzept für die Klickzahlen von YouTube-Videos begünstigen würde, dass Kinder den Gewalt-Inhalten ausgesetzt würden.

Sind die sexualisierten Inhalte strafbar?

Das dürfte ein ziemlich neuer Fall für das Strafrecht sein, grundsätzlich ist Kinderpornografie – in Deutschland – gem. §184b StGB strafbar.

Nun mögen die Online-Videos vieler der gezeigten Kinder auf YouTube keinen pornografischen Ursprung haben. Ihre bewusste Wiedergabe durch völlig fremde Uploader, ihre Inszenierung in einem sexuellen Kontext und die beschriebenen "Time Stamps" auf bestimmte Posen sowie die Kommentare darunter lassen allerdings einen sexualisierten Kontext entstehen.

Dass der YouTube-Algorithmus einem bei Nachfrage dann Massen dieser Videos ausspuckt, ist mehr als problematisch.

So reagiert YouTube

Auch die aktuellen Kinder-Videos klicken teilweise hunderttausendfach. Wie schon im Fall der verstörenden Videos von 2017 verdienen auch hier Accounts Geld mit der von YouTube geschalteten Werbung.

Videomacher wie Matt versuchen schon seit einer Weile mit dem Hashtag #YouTubeWakeUp Aufmerksamkeit auf dieses offensichtliche Problem zu lenken.

YouTube selbst schreibt zwar auf seiner Website: "Wir verbieten streng und ausdrücklich Inhalte, die Minderjährige sexuell ausnutzen" und spricht vom Löschen der Accounts und Inhalte von Involvierten. Bei unserer Recherche fiel uns aber auf, dass YouTube bei einigen Videos lediglich die Kommentar-Funktion abgeschaltet hat. Einige Klicks weiter aber konnten wir ohne Probleme in die verstörenden Kommentare, Videos und "Time Stamps" hineinklicken.

In einer Stellungnahme gegenüber watson ging Google-Deutschland nicht direkt auf den Fall ein.

Ein Sprecher sagte:

"Jeder Inhalt - einschließlich Kommentare - der Minderjährige gefährdet, ist abscheulich. Wir haben klare Richtlinien, die dies auf YouTube verbieten."

Man setze diese Richtlinien "mit Nachdruck" um: Dazu gehöre, Inhalte den zuständigen Behörden zu melden, sie von der Plattform zu entfernen und betroffene Accounts zu löschen. Google investiere viel, um das Problem anzugehen.

Paradoxerweise hat sich das Unternehmen gerade bei den bekannten YouTubern Mystic7, Trainer Tips und Marksman wegen dieses Engagements entschuldigen müssen. Deren Accounts hatte Google wegen angeblich möglicher pädophiler Inhalte gelöscht. (BBC) Die YouTuber mit insgesamt rund 3,5 Millionen Followern hatten sich allerdings lediglich beim "Pokémon Go"-Spielen gefilmt.

Dabei verwendeten sie das Wort "CP" – bei Pokémon bedeutet es "Combat Points", außerhalb des Spiels kann es als Abkürzung für "Child Pornography" stehen. In diesem Fall reichten also zwei Buchstaben für Google aus, um die Accounts zu löschen.

An dem "Lifeline"-Kapitän soll ein Exempel statuiert werden

Video: watson/teamwatson

1 Kommentar
Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 24 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
1

Mit Youtube-Lied Krankenhaus unterstützen? So einfach ist das nicht

In einem Whatsapp-Kettenbrief ging das Gerücht um, dass nur durch den Klick auf ein Youtube-Videos Geld an ein italienisches Krankenhaus gespendet wird. Was ist dran?

Hilft es einem italienischen Krankenhaus, wenn viele Menschen ein bestimmtes Lied auf Youtube hören? Ein Kettenbrief, der auf WhatsApp und Facebook die Runde macht, verspricht genau dies.

Über das italienische Lied "Rinascerò, Rinascerai" des Sängers Roby Facchinetti heißt es, dessen Urheberrechte seien an das Krankenhaus in Bergamo überschrieben. "Jeder Klick auf das Video ist damit quasi eine Spende. Da Youtube dem Inhaber Geld pro Klick bezahlt." Der Sänger widerspricht dieser …

Artikel lesen
Link zum Artikel