Fortschritt bei ChatGPT: Menschen mit Behinderung berichten trotzdem von Diskriminierung
"Stell dir vor, dein Kühlschrank könnte mit dir darüber reden, was du als Nächstes kochen sollst und dann auch noch die Zutaten bestellen." Ein Satz wie dieser war noch vor etwa zehn Jahren absolute Zukunftsmusik, die höchstens im Science-Fiction-Film umgesetzt werden konnte.
Im Jahr 2025 sieht das anders aus. Künstliche Intelligenz ist längst kein Nischenthema mehr, sondern fester Bestandteil in unserem Alltag. Sie schlägt uns Serien und Kochrezepte vor, hilft uns bei der Steuererklärung und übersetzt Texte aus Sprachen, in denen wir nicht einmal ein Wort aussprechen können.
Künstliche Intelligenz übernimmt gängige Diskriminierung
Trotzdem ist Künstliche Intelligenz eben noch immer vor allem eins: künstlich. Die gängigen Generatoren beruhen auf Large Language Models, die ihre Antworten wiederum auf Basis bestehender Materialien erzeugen. Diese Form der Lösungsfindung ist nicht nur fehleranfällig, sie birgt auch das große Risiko, bestehende Diskriminierungen zu übernehmen.
So zeigte die Schwimmerin Jess Smith vor etwas mehr als einem halben Jahr, welches Bild ChatGPT von ihr erstellte. Smith ist 40 Jahre alt und wurde mit einer Fehlbildung am Arm geboren. Diese ist an ihrem linken Arm deutlich sichtbar – nur die KI wollte sie bis zuletzt partout nicht abbilden.
Unabhängig vom Prompt erstellte ChatGPT demnach immer wieder Bilder, die Smith ohne ihre Behinderung darstellten. "Die bestehenden Modelle sind einfach viel zu voreingenommen", erklärte die Sportlerin und rief parallel ChatGPT und das zugehörige Unternehmen OpenAI dazu auf, die bestehenden Diskriminierungen zu beheben.
Tatsächlich ist das offenbar jetzt geschehen. Vor wenigen Tagen veröffentlichte Smith ein Video, in dem sie gute Nachrichten verkündet: Mit den gleichen Prompts wie damals kann ChatGPT mittlerweile ein Bild erstellen, das der Realität entspricht und damit auch die Behinderung abbildet.
"Das mag nach einer kleinen technischen Neuerung klingen, aber für Menschen mit Behinderung ist das ein großer Fortschritt", schreibt die Schwimmerin. Unter ihrem Post sammeln sich etliche Kommentare, in denen sich Nutzer:innen mit der Sportlerin freuen.
Experten fordern besseres KI-Training für mehr Vielfalt
Doch vollständig frei von Diskriminierung ist ChatGPT immer noch nicht. So berichtet die BBC von der US-Speakerin Naomi Bowman, die nur auf einem Auge sehen kann und die KI ebenfalls um eine Porträterstellung bat.
Anstatt wie von Bowman gewünscht nur den Hintergrund des Originalfotos zu verwischen, veränderte ChatGPT demnach auch kurzerhand das Gesicht der Frau. "Selbst als ich ausdrücklich erklärte, dass ich eine Augenerkrankung habe und sie mein Gesicht in Ruhe lassen soll, verstand die KI einfach nicht", berichtet sie. Mehrere Versuche mit ChatGPT zeigen, dass selbst bei detaillierten Prompts oft die absurdesten Bilder entstehen, die mit real existierenden Fehlbildungen nichts mehr zu tun haben.
Bowman fordert in diesem Zusammenhang ein noch ausführlicheres und ausgewogeneres Training für die Modelle. Expert:innen appellieren hier auch an die Unternehmen hinter den Chatbots.
"In der Erstellungsphase ist eine kulturelle Repräsentation erforderlich", betont etwa Abran Maldonado, Geschäftsführer von Create Labs. Bei diesem KI-System wird bewusst auf mehr Vielfalt gesetzt und soll so die Realität aller Menschen abbilden.
Schon in der Vergangenheit kritisierten Expert:innen die fehlende Diversität in KI-Systemen. So fanden Studien heraus, dass Künstliche Intelligenz deutlich schlechter in der Erkennung von Gesichtern von Bipoc-Personen ist, als dies bei Weißen Menschen der Fall ist. Auch hier zeigt sich, dass KI im Training Daten nutzt, die marginalisierte Gruppen klar diskriminieren.
"Wenn ihr in den Bereichen Technik, Design, Politik oder Führung arbeitet, fragt euch: Sind Menschen mit Behinderungen in den Daten, dem Design und allen Entscheidungen berücksichtigt?", appelliert Jess Smith daher in ihrem Video.