Leben
Interview

Künstliche Intelligenz: Warum es AI Tools wie ChatGPT an Feminismus mangelt

Wenn man ChatGPT nach einem Symbolbild für Feminismus und KI fragt, kommt das dabei heraus.
Wenn man ChatGPT nach einem Symbolbild für Feminismus und KI fragt, kommt das dabei heraus.Bild: ChatGPT
Interview

Alles nur Utopie? Unternehmerin will KI feministischer machen

16.12.2024, 19:39
Mehr «Leben»

Künstliche Intelligenzen (KI) sind in unserem Alltag mittlerweile allgegenwärtig. Online-Shops wie Amazon und Zalando setzen Chatbots ein, um Kund:innen bei ihren Anliegen zu helfen. Routenplaner wie Google Maps nutzen KI, um beispielsweise die Verkehrslage in Echtzeit zu analysieren. Und in immer mehr deutschen Wohnzimmern warten Sprachassistenten wie Siri oder Alexa darauf, unsere abwegigsten Fragen zu beantworten.

Auf den ersten Blick bietet KI also viele Vorteile, die unseren Alltag merklich erleichtern können. Aber es gibt natürlich auch Schattenseiten. Auf Social Media verbreiten zum Beispiel automatisierte Bots immer wieder Desinformation und Hassrede. Gleiches gilt für sogenannte Deepfake-Inhalte, also manipulierte, KI-generierte Bilder oder Videos.

Watson ist jetzt auf Whatsapp
Jetzt auf Whatsapp und Instagram: dein watson-Update! Wir versorgen dich hier auf Whatsapp mit den watson-Highlights des Tages. Nur einmal pro Tag – kein Spam, kein Blabla, nur sieben Links. Versprochen! Du möchtest lieber auf Instagram informiert werden? Hier findest du unseren Broadcast-Channel.

Und: Auch Künstliche Intelligenzen treffen immer wieder Fehlentscheidungen. Denn sie lernen aus den Daten, die ihnen bereitgestellt werden. Und wenn diese fehlerhaft, unvollständig oder einseitig sind, hat das natürlich Auswirkungen darauf, wie die KI arbeitet und welche Ergebnisse sie liefert.

Das heißt, wenn die zur Verfügung gestellten Daten zum Beispiel Vorurteile enthalten, kann auch eine KI diskriminieren. Und genau dagegen will Alexandra Wudel etwas tun. Sie hat 2022 FemAI gegründet, ein Berliner Startup mit dem Ziel, verstärkt feministische und inklusive Perspektiven in die Entwicklung von KI einzubringen.

Alexandra Wudel ist CEO des Tech-Unternehmens FemAI.
Alexandra Wudel ist CEO des Tech-Unternehmens FemAI.bild: swetlana holz / femAi

Mit watson hat Wudel darüber gesprochen, wie häufig Künstliche Intelligenzen jetzt schon diskriminieren, woran das liegt und was man als Einzelperson aktiv dagegen tun kann.

watson: Du hast vor Kurzem getestet, was passiert, wenn man ChatGPT beauftragt das Bild eines CEOs zu erstellen. Rausgekommen ist ein mittelalter, gutaussehender, weißer Mann im Anzug. Was sagt das darüber aus, wie feministisch KI aktuell ist?

Alexandra Wudel: Also vor einem Jahr war es wirklich so, dass man bei dem Prompt CEO (Anm. d. Red.: dem Auftrag, ein Bild eines CEOs zu erstellen) immer einen weißen, gutaussehenden Mann gezeigt bekommen hat – egal von welchem KI-System. Mittlerweile hat sich das geändert und es werden auch Bilder weiblicher CEOs erstellt. Aber der Bias, also die Verzerrung, in Richtung schlanke, gutaussehende und weiße Leute besteht beispielsweise immer noch.

Und wenn solche Bilder in globalen Werbekampagnen verwendet werden, hat das natürlich Auswirkungen auf unsere Selbstwahrnehmung und Schönheitsideale.

Genau. Es gibt aber auch andere Beispiele, die zeigen, welche Folgen es haben kann, wenn bei der Entwicklung von KI keine marginalisierten Gruppen berücksichtigt werden. Im Jahr 2021 habe ich untersucht, inwieweit Gesichtserkennungssoftware bei der Strafverfolgung in den USA und Europa bereits eingesetzt werden. Dabei hat sich gezeigt, dass vor allem schwarze Frauen häufig als schuldig identifiziert werden, obwohl sie es gar nicht sind. Die Fehlidentifikationsrate lag damals bei 34 Prozent.

Womit hängt das zusammen?

Zum einen gibt es eine Datenlücke, weil es weniger Bilder von schwarzen Menschen gibt. Zum anderen funktionieren solche Gesichtserkennungssoftwares auf dunklerer Haut schlechter, weil sie weniger Schatten wirft. Und am Ende gibt es auch einen rassistischen Bias in den Polizeistrukturen, der sich auch in der KI wiederfindet.

Die Diskriminierung aus der realen Welt wird also auch ins Digitale übertragen. Aber ist diese Verzerrung auch eine Folge davon, dass an der KI-Entwicklung weiterhin nur wenige Frauen beteiligt sind?

Absolut! Es gibt Statistiken, wonach weniger als 20 Prozent der Data Scientists in Europa Frauen sind, und das wirkt sich natürlich auch auf die Entwicklung von KI-Tools aus. Weil Frauen bringen nun mal andere Perspektiven ein als Männer.

Hinzukommt die sogenannte Gender Data Gap, also eine Datenlücke zwischen den Geschlechtern. Jahrzehntelang sind deutlich mehr Daten von und zu Männern gesammelt worden als zu Frauen.

Das stimmt, da gibt es eindeutig ein Ungleichgewicht. Aber ich finde es auch wichtig zusagen, dass man bei beispielsweise bei ChatGPT immer wieder Feedback geben kann und das wird dann auch eingearbeitet. Das zeigt ja auch das CEO-Beispiel. Mittlerweile gibt es KI-Tools, die dann auch mal ein Bild einer nicht-weißen Frau erstellen.

Man kann also auch als Einzelperson darauf Einfluss nehmen, wie sich eine KI weiterentwickelt?

Der Einfluss ist natürlich begrenzt, aber man kann KI definitiv als Werkzeug sehen, um solche Macht-Ungleichgewichte zu erkennen und dann Veränderungen anzustoßen. In der Hinsicht kann man schon von einer Demokratisierung sprechen. Wenn mehr Frauen diese Werkzeuge nutzen würden, könnte man vielleicht noch mehr gesellschaftlichen Impact damit generieren. Es ist halt nur die Frage, wer weiß davon und wer nutzt es am Ende auch.

Und das gilt nicht nur für Frauen.

Ja, Gender ist nur ein Aspekt. Frauen werden mittlerweile stärker von KI berücksichtigt als noch vor ein paar Jahren. Menschen mit Migrationshintergrund oder mit Behinderung werden aber zum Beispiel oft noch nicht mitgedacht.

Deswegen verfolgt ihr beim FemAI auch einen intersektionalen feministischen Ansatz. Wie kann man sich eure Arbeit vorstellen?

Wir haben bislang projektbezogen mit unterschiedlichen Partnern gearbeitet, also Gesetzgebern, Vertretern der Zivilgesellschaft, großen Tech-Unternehmen wie Microsoft und Google oder kleinen KI-Startups. Dadurch hatten wir keinen richtigen Arbeitsalltag, aber so war es auch möglich, sich unheimlich viel Wissen anzueignen und jetzt haben wir einen ganz guten Überblick zum Thema KI. Im kommenden Jahr wollen wir in die Umsetzung gehen mit dem Motto „Stop talking, start acting!“.

Damit habt ihr schon angefangen. Aktuell arbeitet FemAI an einem konkreten KI-Tool. Was wollt ihr damit erreichen?

Es gibt mittlerweile 10.000 KI-Tools, jeden Tag kommen 30 bis 50 neue hinzu. Viele fragen sich, wie findet man sich in dieser Masse zurecht und welchen Tools kann ich vertrauen? Wir arbeiten gerade an einem KI-Tool, das analysieren soll, ob andere KI-Systeme für intersektionalen Feminismus sensibilisiert sind. Uns geht es darum, Vertrauen in KI-Systeme aufzubauen, damit sich Konsument:innen darauf verlassen können. Andererseits wollen wir Unternehmen, die sich für diese Themen interessieren, passende ethische Richtlinien und eine Zertifizierung anbieten.

Ganz ohne Diskriminierung wird KI aber wohl – wie auch unsere Gesellschaft – nie auskommen. Läuft man da also nicht einer Utopie hinterher?

Komplett ohne Diskriminierung wird KI wohl auch in Zukunft nicht auskommen, weil wir in unserer Gesellschaft letztendlich auch ein unterschiedliches politisches Verständnis von Repräsentation haben. Aber man kann Diskriminierung relativ stark minimieren, denn dadurch das KI das Potenzial hat, eine enorme Menge an Daten zu managen, ist es theoretisch möglich, jeden Menschen abzubilden. Das ist schon etwas Neues, was vorher nicht möglich war.

Warum bin ich ständig erkältet – und meine Freunde so gut wie nie?

Gefühlt alle zwei Wochen müsst ihr euch einen neuen Vorrat an Taschentüchern zulegen, weil ihr schon wieder erkältet seid? Ihr bekommt nur noch Unverständnis von euren Freund:innen, weil sie die Winterzeit komischerweise kerngesund überstehen?

Zur Story