Auch wenn es weiterhin ein sensibles Thema bleibt, mit einer psychischen Erkrankung zu leben, ist es längst nicht mehr so tabuisiert wie vielleicht noch zu Beginn des Jahrhunderts. Auf Social Media gehen immer mehr Menschen offen mit ihrer Diagnose um und teilen beispielsweise ihre Erfahrungen mit ADHS, Depressionen oder bipolaren Störungen.
Doch auch wenn das Tabu um psychische Erkrankungen in vielen Fällen nicht mehr so schwer wiegt, hat sich die Versorgungslage von Betroffenen nicht verbessert. Im Gegenteil: Mittlerweile müssen Patient:innen in Deutschland teilweise mehrere Monate auf einen Therapieplatz warten.
Laut der Bundespsychotherapeutenkammer beträgt die Wartezeit zwischen Erstgespräch und Therapiebeginn hierzulande im Schnitt 142 Tage; das sind fast fünf Monate. Für Menschen, die akut mit psychischen Problemen zu kämpfen haben, sind das natürlich keine rosigen Aussichten.
Vielleicht ist das auch ein Grund, warum auf Tiktok gerade einige User:innen eine kuriose Alternative zu einer professionellen Psychotherapie vorschlagen: eine Therapy Session mit ChatGPT.
"Ich hätte niemals gedacht, wie gut das funktioniert. Es ist überhaupt nicht komisch, man kann so offen sprechen", schwärmt beispielsweise die Userin Maya Jasmin. Der KI-Chatbot gebe "so gute, tiefgründige Ansichten" und bleibe an den richtigen Stellen hängen.
Auch die Creatorin Nikolina Livabelle sieht in ChatGPT großes Potenzial: "Ein sehr krasser Vorteil ist ja, dass man das Gespräch suchen kann, wenn die Gefühle gerade frisch sind und eventuell kommt man dann an noch mehr Erkenntnisse als wenn man erst nächste Woche darüber spricht."
Deshalb könnte ChatGPT aus ihrer Sicht auch für Menschen hilfreich sein, die Probleme haben, einen Therapieplatz zu finden oder sich gar nicht erst trauen, eine:n Psychotherapeut:in aufzusuchen.
In der Video-Caption liefert Nikolina Livabelle direkt auch einen Prompt für den KI-Chatbot, also ein Kommando, wie die Therapy Session ablaufen kann. Als Gesprächsregeln schlägt sie zum Beispiel vor, dass ChatGPT nicht zu viele Fragen stellen solle und auch nicht auf alle Teile ihres Textes gleichzeitig eingehen solle, sondern sich vielmehr einzelne Aspekte herauspicken soll, die es für wichtig hält.
Auch welche Rolle, die KI einnehmen soll, könne man vorgeben. Soll es eine eher ältere Frau mit liebevollem Kern sein oder ein lockerer Therapeut, der provokante Fragen stellt?
In den Kommentaren erhalten die Tiktok-Creator:innen gemischte Reaktionen. Eine Userin schreibt: "Ich habe ChatGPT mit Themen konfrontiert, die ich zuvor mit meiner Therapeutin besprochen habe und tatsächlich hat ChatGPT ähnliche Unterstützung gegeben wie die Therapeutin."
Eine andere schreibt hingegen: "Als Überbrückung bis man einen Therapeuten hat, mag das vielleicht gut sein, aber ersetzen kann das den Therapeuten ganz bestimmt nicht." Dem stimmt auch eine andere Userin zu: "Leute, bitte holt euch lieber professionelle Hilfe, am Ende des Tages sollten Menschen Menschen helfen."
Und tatsächlich gibt es bereits erste wissenschaftliche Untersuchungen, die die Zweifel an ChatGPT als Psychotherapie-Alternative bestätigen. Wie das Onlinemagazin "Telepolis" berichtet, haben Forscher:innen der Universität Zürich und der Psychiatrischen Universitätsklinik Zürich (PUK) herausgefunden, dass KI-Bots keine professionelle Distanz zu den Patient:innen halten. Stattdessen ließen sie sich von emotionalen Inhalten beeinflussen.
Nachdem die Wissenschaftler:innen ChatGPT emotional belastende Geschichten präsentiert hatten, zum Beispiel Berichte über Autounfälle oder zwischenmenschliche Gewalt, seien die Angstwerte der KI um mehr als das Doppelte angestiegen.
Sie reagierte also ähnlich wie ein Mensch – und das ist ein Problem. Denn: "Haben Menschen Angst, beeinflusst dies ihre kognitiven und sozialen Vorurteile: Sie neigen zu mehr Ressentiments und soziale Stereotypen werden verstärkt." Dadurch könne sich auch ChatGPT rassistischer oder sexistischer verhalten.
Gleichzeitig fanden die Forscher:innen aber auch heraus, dass sich der Chatbot durch Achtsamkeitsübungen wieder beruhigen lässt; das Angstniveau der KI ließ sich also wieder senken.
Damit KI-Systeme in Zukunft aber tatsächlich im Gesundheitswesen eingesetzt werden, muss laut "Telepolis" deren "emotionale Stabilität" verbessert werden. Dafür bedarf es aber wohl noch viele weitere, umfangreiche Studien.
Und die werden aller Voraussicht nach einige Jahre oder gar Jahrzehnte in Anspruch nehmen. Bis dahin sollte das gelten, was auch die Creatorin Maya Jasmin in ihre Video-Caption schreibt: "Wenn du (ernste) psychische Probleme hast, solltest du natürlich einen Arzt aufsuchen".