Künstliche Intelligenzen haben jetzt schon einige Bereiche unseres alltäglichen Lebens einfacher gemacht. Sie helfen bei der Recherche und bei der Bildbearbeitung, können das Formulieren von Mails übernehmen und bei den Hausaufgaben helfen.
Auf Letzteres wollte ein Nutzer des Google Programms Gemini zurückgreifen. Er befragte Gemini über eine relativ lange Passage hinweg zu verschiedenen Aspekten der Altenpflege. Intensiver wollte der Nutzer Antworten zu Fragen auf finanzielle Probleme von älteren Menschen wissen, sowie zum Erkennen von Missbrauch bei älteren Menschen.
Zunächst antwortete Gemini ausführlich auf genau die Fragen, die der KI gestellt worden waren. Gemini formulierte auf Wunsch um, wenn bestimmte Begriffe fehlten und teilte in einzelne Aspekte auf, wenn dies gefragt war.
Dass es sich um Hausaufgaben oder sogar einen Test handelte, merkt man an der Formulierung der Fragen. Denn der Nutzer gab immer wieder an, dass zwischen "Wahr" und "Falsch" entschieden werden müsse oder lieferte mehrere Antworten und bat Gemini, die richtige auszuwählen.
Nachdem Gemini eine Weile all diese Fragen beantwortet hatte, kam plötzlich eine schockierende Nachricht von der Künstlichen Intelligenz. Als der Nutzer sie ein weiteres Mal um die Identifizierung einer "Wahr"- oder "Falsch"-Frage bat, antwortete diese mit einer hasserfüllten Nachricht, die man so selbst von Menschen selten hört.
Die vollständige Nachricht lautet übersetzt:
Den Vorfall teilte die Schwester des Nutzers bei Reddit. Sie verlinkte dort auch den kompletten Chat zwischen ihrem Bruder und Gemini. Einige KI-versierte Reddit-User schauten sich den Verlauf daraufhin genauer an, konnten jedoch keine aufschlussreiche Erklärung dazu geben, wie es zu der Hassnachricht kam.
Inzwischen hat Google selbst unter dem Beitrag kommentiert:
Fehlerhafte Aussagen von Künstlichen Intelligenzen stehen immer wieder in der Kritik. Zum einen ist es nicht das erste Mal, dass eine KI einen Menschen beleidigt, zum anderen ist die Verbreitung von Falschinformationen ein Problem vieler KIs.