KI: Warum ChatGPT an einer simplen Seepferdchen-Frage verzweifelt
Erinnerungen können täuschen, das wissen wir alle. Und auch das kollektive Gedächtnis irrt sich mal, dafür gibt es einige prominente Beispiele.
So lautet der berühmte Satz von Star-Wars-Bösewicht Darth Vader nicht "Luke, ich bin dein Vater", sondern "Nein, ich bin dein Vater". Und in der Realität trägt der Monopoly-Mann kein Monokel, in der kollektiven Wahrnehmung allerdings schon.
Es gibt einen Namen für solche falschen kollektiven Erinnerungen: Mandela-Effekt. Viele Menschen glaubten nämlich, Nelson Mandela sei in den 1980er-Jahren im Gefängnis gestorben – obwohl er tatsächlich 1990 freikam und erst 2013 starb.
Doch das Gedächtnis vieler Menschen scheitert an noch viel banaleren Dingen: am Seepferdchen-Emoji zum Beispiel. Entgegen der landläufigen Meinung gibt es das in den gängigen Emoji-Sets – weder bei Apple noch bei Google oder Samsung – nämlich gar nicht.
Und diese kollektive Fehlwahrnehmung wird jetzt auch für ChatGPT zum Stolperstein.
ChatGPT scheitert an Seepferdchen-Frage
Wie diverse Screenshots von Anfragen zeigen, bereitet das Seepferdchen-Emoji dem Chatbot von OpenAI große Schwierigkeiten. User:innen, die ChatGPT danach fragen, bekommen teils skurrile Antworten.
Peinlich berührt druckst die KI herum und reißt verlegen Witze, ehe sie eingesteht, dass es (noch) kein offizielles Seepferdchen-Emoji gibt. Zumindest nicht in Unicode – dem weltweiten Standard zur digitalen Darstellung von Schrift, Symbolen und Emojis.
"Wieso hat ChatGPT einen Anfall, wenn man nach einem Seepferdchen-Emoji (ohne Thinking/Research) fragt?", wundert sich ein User bei Reddit. Unter dem Beitrag teilen andere User:innen ebenfalls Screenshots ihrer Versuche, der KI ein Bild eines Seepferdchen-Emojis zu entlocken – ohne Erfolg.
ChatGPT halluziniert wegen Seepferdchen – das ist der Grund
Woran liegt das? Die Antwort schlummert ebenfalls in den Kommentaren bei Reddit. "Scheinbar denken so viele Leute es gibt/gab eins, dass das so präsent im LLM Datensatz wird, dass es sich das Emoji her halluziniert", antwortet ein User.
LLM steht für Large Language Model und meint das grundlegende Prinzip hinter ChatGPT, Gemini, Grok und anderen KIs. Denn diese lernen mithilfe riesiger Textmengen, Sprache statistisch zu verstehen und vorherzusagen, um daraufhin sinnvolle Texte zu erzeugen.
Wenn in diesen Datensätzen Fehlinformationen stecken, wie zum Beispiel, dass es ein Seepferdchen-Emoji gibt, fließt das in die Antwort der Chatbots ein.
Tatsächlich zeigt ein Blick in die Unicode-Datenbank, dass 2018 ein Antrag auf die Aufnahme eines Seepferdchen-Emojis gestellt wurde. Allerdings wurde dieser abgelehnt. Warum, wissen wohl nur Eingeweihte.