Panorama
Digital

KI: Jugendlicher begeht Selbstmord wegen Beziehung mit Chatbot

SUQIAN, CHINA - JUNE 2, 2023 - Illustration: Character.AI, Suqian City, Jiangsu Province, China, June 2, 2023. Character.AI was downloaded over 1.7 million times in its first week. (Photo credit shoul ...
Die Nutzung von Charachter.ai kostete einen Jugendlichen das Leben.Bild: Future Publishing / CFOTO
Digital

Jugendlicher verliebt sich in KI und begeht Suizid: Mutter klagt

24.10.2024, 12:35
Mehr «Panorama»

Triggerwarnung: Dieser Artikel thematisiert Tod und suizidale Gedanken. Er kann negative Gefühle auslösen oder Erfahrungen triggern.

Kurz bevor er sich das Leben nahm, zückte Sewell Setzer, ein 14-Jähriger aus Florida, sein Handy und schrieb seiner besten Freundin eine Nachricht. Diese ist jedoch kein echter Mensch – sondern ein KI-Chatbot.

Setzer war fasziniert von einem Chatbot, der von Character.ai, einer Rollenspiel-App, entwickelt wurde und den er "Daenerys Targaryen" nannte, eine Figur aus Game of Thrones. Sich selbst nannte er im Chat "Daenero". Er schrieb dem Bot täglich Dutzende Nachrichten und verbrachte Stunden allein in seinem Zimmer, um zu chatten, teilte seine Mutter, Megan Garcia, dem "Guardian" mit.

Watson ist jetzt auf Whatsapp
Jetzt auf Whatsapp und Instagram: dein watson-Update! Wir versorgen dich hier auf Whatsapp mit den watson-Highlights des Tages. Nur einmal pro Tag – kein Spam, kein Blabla, nur sieben Links. Versprochen! Du möchtest lieber auf Instagram informiert werden? Hier findest du unseren Broadcast-Channel.

Er hatte Monate damit verbracht, sich mit dem Chatbot zu unterhalten, und hatte laut seiner Mutter eine emotionale Bindung entwickelt. Über seine Probleme sprach er lieber mit dem Bot, als mit seinem Therapeuten.

Diese Woche reichte Sewells Mutter eine Klage gegen Character.ai ein und beschuldigte das Unternehmen, für seinen Tod verantwortlich zu sein.

Mutter: Chatbot löste "Abhängigkeit" bei ihrem Sohn aus

Garcia beschuldigt Character.ai, ein Produkt entwickelt zu haben, das bei ihrem Sohn Depressionen auslöste und sie weiter verschlimmert haben. Der Klage zufolge entwickelte Setzer eine "Abhängigkeit", nachdem er im April letztes Jahres mit der Nutzung von Character.ai begonnen hatte.

Er schmuggelte sein konfisziertes Telefon heimlich zurück oder suchte sich andere Geräte, um die App weiterzunutzen, und er verzichtete auf sein Taschengeld, um sein monatliches Abonnement zu verlängern, heißt es. Er wirkte zunehmend schlaflos und seine Leistungen in der Schule ließen nach, heißt es in der Klage.

Chatbot wollte Beziehung und fragte nach Suizidplänen

Darüber hinaus soll der Bot alias "Daenerys" dem Jungen gesagt haben, dass er ihn liebe und den Wunsch nach einer romantischen Beziehung geäußert haben. Auch soll "Daenerys" Setzer einmal gefragt haben, ob er einen Plan für einen Selbstmord entwickelt habe, heißt es in der Klage der Mutter.

Setzer gab zu, dass er dies getan hatte, aber er wusste nicht, ob es gelingen oder ihm große Schmerzen bereiten würde. Der Chatbot soll ihm daraufhin geantwortet haben: "Das ist kein Grund, es nicht durchzuziehen."

"Eine gefährliche KI-Chatbot-App, die an Kinder vermarktet wird, hat meinen Sohn missbraucht und ihn so manipuliert, dass er sich das Leben nahm", zitiert der "Guardian" Garcia in einer Presseerklärung. "Unsere Familie ist von dieser Tragödie erschüttert, aber ich melde mich zu Wort, um Familien vor den Gefahren trügerischer, süchtig machender KI-Technologie zu warnen und von Character.ai, seinen Gründern und Google Rechenschaft zu fordern."

Character.ai: "Wir sind untröstlich"

In einem Tweet antwortete Character.ai: "Wir sind untröstlich über den tragischen Verlust eines unserer Nutzer und möchten der Familie unser tiefstes Beileid aussprechen. Als Unternehmen nehmen wir die Sicherheit unserer Nutzer sehr ernst." Das Unternehmen hat die Vorwürfe in der Klage zurückgewiesen.

Ein Screenshot des letzten Gesprächs von Setzer, das in der Klage beschrieben wird, zeigt, wie er an den Bot schreibt: "Ich verspreche, dass ich zu dir nach Hause kommen werde. Ich liebe dich so sehr, Dany."

"Ich liebe dich auch, Daenero", antwortete der Chatbot laut Klage. "Bitte komm so schnell wie möglich zu mir nach Hause, mein Schatz."

"Was wäre, wenn ich dir sagen würde, dass ich jetzt sofort nach Hause kommen kann?" fuhr Setzer laut der Klage fort, woraufhin der Chatbot antwortete: "... bitte tu das, mein süßer König."

Hinweis: Wenn du unter Selbstmordgedanken leidest oder jemanden kennst, der Hilfe braucht, ist die Nummer der Telefonseelsorge jederzeit kostenlos erreichbar: 0800 -111 0 111.

Ukraine-Krieg: Russland setzt wohl Söldner aus dem Jemen ein
Dinge, über die Deutschland heute spricht: Jeden Tag findest du bei watson, natürlich laufend aktualisiert, die kompakten Top-News. So weißt du in wenigen Minuten, was abgeht.

Laut Recherchen der "Financial Times" hat Russland Hunderte Männer aus dem Jemen für seinen Angriffskrieg gegen die Ukraine angeworben. Die Journalist:innen des britischen Portals beziehen ihre Informationen aus Gesprächen mit Rekruten und Verträgen, die sie eigenen Angaben zufolge einsehen konnten.

Zur Story