Leben
Digital

Tiktok: Verstörende KI-Deepfakes von Mordopfern fluten Plattform

Die Deepfake-Videos locken Zuschauer:innen.
Die Deepfake-Videos locken Zuschauer:innen. Bild: touchingstory9 / Tiktok
Digital

Tiktok: Verstörende KI-Deepfakes von Mordopfern fluten Plattform

04.06.2023, 08:30
Mehr «Leben»

Künstliche Intelligenz ist das Thema unserer Zeit geworden. Ob banale Dinge wie Hausarbeiten und Kochrezepte oder der mögliche Ersatz ganzer Berufszweige: Der technische Fortschritt hat zuletzt einen Meilenstein hinter sich gelegt.

Doch mit Zunahme der Künstlichen Intelligenz wächst auch deren Risikopotenzial. Vor allem durch sogenannte Deepfakes stößt die technische Erzeugung von Inhalten auch an ihre rechtlichen Grenzen. Mit einem neuen Tiktok-Trend werden diese Grenzen auf absurde Weise aufgebrochen.

Neu: dein Watson-Update
Jetzt nur auf Instagram: dein watson-Update! Hier findest du unseren Broadcast-Channel, in dem wir dich mit den watson-Highlights versorgen. Und zwar nur einmal pro Tag – kein Spam und kein Blabla, versprochen! Probiert es jetzt aus. Und folgt uns natürlich gerne hier auch auf Instagram.

"Mein Vater sperrte mich in eine laufende Waschmaschine. Ich starb unter entsetzlichen Schmerzen", erzählt der dreijährige Little Bastien mit großen blauen Augen in einem Tiktok-Video. In schrecklicher Ausführlichkeit erklärt er die Umstände seines Todes und seiner Familiengeschichte.

Es ist eines von vielen Tiktoks auf dem Account Touching Story, der mehr als 66.000 Follower:innen hat und in regelmäßigen Abständen True-Crime-Geschichten veröffentlicht. Die erzählten Geschichten stimmen bis auf kleine Details meist wirklich, oft wird sogar der echte Name des Opfers genannt.

Deep-Fakes nutzen teils echte Stories – mit einer Änderung

Laut einer Reportage des "Rolling Stone" werden für die Deep Fakes zwar oft aus Gründen der "Privatsphäre" keine echten Fotos der Opfer verwendet. Ob das tatsächlich mit dem Respekt vor den Angehörigen zusammenhängt oder schlicht mit dem Verstoß gegen das Recht am eigenen Bild, bleibt unklar.

Die Plattform selbst hatte im März eine Richtlinie festgelegt, nach der Deepfakes von Privatpersonen und Personen von öffentlichem Interesse größtenteils verboten sind. Dies könnte auch ein Grund dafür sein, dass viele der True-Crime-Accounts immer wieder neu angelegt werden.

Wie auch True-Crime-Podcasts boomen die Accounts mit den Geschichten der Mordopfer. "Sie scheinen darauf ausgelegt zu sein, starke emotionale Reaktionen auszulösen, denn das ist der sicherste Weg, um Klicks und Likes zu bekommen", erklärt der US-amerikanische Rechtswissenschaftler Paul Bleakley gegenüber dem "Rolling Stone".

So zeigt der Account Touching Stories nicht nur den mittlerweile weltweit bekannten Fall der Maddie McCann – ebenfalls mit einem veränderten Aussehen. Auch umgekehrt werden verschiedene Mordfälle aus der Ich-Perspektive von mutmaßlichen Täter:innen erzählt.

"Ich packte mein Neugeborenes nach der Geburt in eine Plastiktüte und warf es in den Müll", beginnt etwa die Geschichte einer 19-Jährigen, die in Wirklichkeit 18 Jahre alt war, als die wahre Straftat in den USA passierte.

Deepfake-Tiktoks fordern moralisches Verhalten

Je nach Fall erscheint am Ende der Videos eine Art moralischer Aufruf, die geschehenen Fälle nicht zu wiederholen. Bei der Perspektive der Täter:innen endet das Video mit: "Glaubst du, ich bin schuldig?"

Für die Angehörigen der Opfer dürfte das Wiederaufleben der schrecklichen Geschichten über Social Media viele Traumata reaktivieren. Rechtlich gesehen bleiben die Fälle jedoch in der Grauzone. Aufgrund dessen, dass die dargestellte Person verstorben ist, können Familien nicht wegen Verleumdung klagen.

Allein in Deutschland nutzen knapp 20 Millionen Menschen die Tiktok-App. Die Plattform steht nicht nur wegen der Verbreitung teils rechtswidriger Trends in der Kritik, sondern auch wegen fehlendem Jugendschutz.

Phishing: Verbraucherschutz warnt vor mieser Masche mit Klarna

Fast jeder Mensch mit einer E-Mail-Adresse hatte schon mit Phishing zu tun. Mit Phishing sind Maschen gemeint, bei denen Betrüger versuchen, von ihren Opfern persönliche Daten abzugreifen, um beispielsweise auf das Bankkonto zuzugreifen.

Zur Story