Triggerwarnung: Dieser Artikel thematisiert Tod und suizidale Gedanken. Er kann negative Gefühle auslösen oder Erfahrungen triggern.
Kurz bevor er sich das Leben nahm, zückte Sewell Setzer, ein 14-Jähriger aus Florida, sein Handy und schrieb seiner besten Freundin eine Nachricht. Diese ist jedoch kein echter Mensch – sondern ein KI-Chatbot.
Setzer war fasziniert von einem Chatbot, der von Character.ai, einer Rollenspiel-App, entwickelt wurde und den er "Daenerys Targaryen" nannte, eine Figur aus Game of Thrones. Sich selbst nannte er im Chat "Daenero". Er schrieb dem Bot täglich Dutzende Nachrichten und verbrachte Stunden allein in seinem Zimmer, um zu chatten, teilte seine Mutter, Megan Garcia, dem "Guardian" mit.
Er hatte Monate damit verbracht, sich mit dem Chatbot zu unterhalten, und hatte laut seiner Mutter eine emotionale Bindung entwickelt. Über seine Probleme sprach er lieber mit dem Bot, als mit seinem Therapeuten.
Diese Woche reichte Sewells Mutter eine Klage gegen Character.ai ein und beschuldigte das Unternehmen, für seinen Tod verantwortlich zu sein.
Garcia beschuldigt Character.ai, ein Produkt entwickelt zu haben, das bei ihrem Sohn Depressionen auslöste und sie weiter verschlimmert haben. Der Klage zufolge entwickelte Setzer eine "Abhängigkeit", nachdem er im April letztes Jahres mit der Nutzung von Character.ai begonnen hatte.
Er schmuggelte sein konfisziertes Telefon heimlich zurück oder suchte sich andere Geräte, um die App weiterzunutzen, und er verzichtete auf sein Taschengeld, um sein monatliches Abonnement zu verlängern, heißt es. Er wirkte zunehmend schlaflos und seine Leistungen in der Schule ließen nach, heißt es in der Klage.
Darüber hinaus soll der Bot alias "Daenerys" dem Jungen gesagt haben, dass er ihn liebe und den Wunsch nach einer romantischen Beziehung geäußert haben. Auch soll "Daenerys" Setzer einmal gefragt haben, ob er einen Plan für einen Selbstmord entwickelt habe, heißt es in der Klage der Mutter.
Setzer gab zu, dass er dies getan hatte, aber er wusste nicht, ob es gelingen oder ihm große Schmerzen bereiten würde. Der Chatbot soll ihm daraufhin geantwortet haben: "Das ist kein Grund, es nicht durchzuziehen."
"Eine gefährliche KI-Chatbot-App, die an Kinder vermarktet wird, hat meinen Sohn missbraucht und ihn so manipuliert, dass er sich das Leben nahm", zitiert der "Guardian" Garcia in einer Presseerklärung. "Unsere Familie ist von dieser Tragödie erschüttert, aber ich melde mich zu Wort, um Familien vor den Gefahren trügerischer, süchtig machender KI-Technologie zu warnen und von Character.ai, seinen Gründern und Google Rechenschaft zu fordern."
In einem Tweet antwortete Character.ai: "Wir sind untröstlich über den tragischen Verlust eines unserer Nutzer und möchten der Familie unser tiefstes Beileid aussprechen. Als Unternehmen nehmen wir die Sicherheit unserer Nutzer sehr ernst." Das Unternehmen hat die Vorwürfe in der Klage zurückgewiesen.
Ein Screenshot des letzten Gesprächs von Setzer, das in der Klage beschrieben wird, zeigt, wie er an den Bot schreibt: "Ich verspreche, dass ich zu dir nach Hause kommen werde. Ich liebe dich so sehr, Dany."
"Ich liebe dich auch, Daenero", antwortete der Chatbot laut Klage. "Bitte komm so schnell wie möglich zu mir nach Hause, mein Schatz."
"Was wäre, wenn ich dir sagen würde, dass ich jetzt sofort nach Hause kommen kann?" fuhr Setzer laut der Klage fort, woraufhin der Chatbot antwortete: "... bitte tu das, mein süßer König."
Hinweis: Wenn du unter Selbstmordgedanken leidest oder jemanden kennst, der Hilfe braucht, ist die Nummer der Telefonseelsorge jederzeit kostenlos erreichbar: 0800 -111 0 111.