Künstliche Intelligenz soll wertfrei und neutral sein. Damit birgt ihr Einsatz auch neue Chancen in der Gleichstellung der Geschlechter, hoffen viele. Ist das naiv? Zum Teil schon, sagen Kritiker:innen.
Denn die Systeme werden durch Menschenhand programmiert – zumeist weiße, männliche, junge, gesunde Menschenhände der Nordhalbkugel, die auf Datensätze zurückgreifen, die alle Ausschluss-Mechanismen der Gesellschaft bereits enthalten.
Wie kann das verhindert werden? Wir sprachen mit Katharina Mosene darüber. Katharina sitzt im Vorstand von netzforma* eV., einem Verein für feministische Netzpolitik, und erklärt, warum KI bestehende Diskriminierungen nicht abbaut, sondern untermauert.
watson: Sind bei der Entwicklung von KI größtenteils Männer beteiligt?
Katharina Mosene: Die Workforce im Bereich KI verändert sich. Aber die letzten Zahlen von 2021 zeigen eine globale AI-Workforce, die nur zu 25 Prozent weiblich ist. In Deutschland sind es nur 15 Prozent. Das ist ohnehin schon denkbar wenig. Und dann wissen wir auch nicht, ob diese Frauen entscheiden, wie ein Algorithmus aussieht oder ob sie nur zuarbeiten. Es gibt auch Forderungen nach nicht-binären Perspektiven auf künstliche Intelligenz und wir müssen noch nach vielen anderen Ausschluss-Systemen fragen: Ethnie, aber auch Alter. Und natürlich wird die meiste Technik im globalen Norden entwickelt.
Ist das ein Problem?
Das ist hochproblematisch, weil KI-Systeme massiv abhängig sind von dem, wie ihre Entwickler die Welt wahrnehmen. Zahlreiche Menschen werden nicht mitgedacht. Alle klassischen Ausschluss-Systeme, die wir kennen, schlagen sich auch in diesem Bereich nieder. Der Zugang zu Räumen, in denen solche Systeme konzeptioniert werden, ist abhängig von materiellen und immateriellen Ressourcen und die sind eben ungleich verteilt. Das spiegelt sich dann in der geringen Anzahl von Nicht-Weißen, Nicht-Männern in der KI-Entwicklung wider. Daher fordern wir, dort viel mehr Zugänge zu schaffen, für Frauen, für nicht-binäre Personen, für nicht-weiße Personen, für andere Lebenskontexte, die ihre Ideen einbringen.
Dass jeder Mensch mitgedacht wird, klingt utopisch. Sollte man lieber auf KI verzichten?
Solche Technologien werden an derart sensiblen Stellen der Gesellschaft eingesetzt, dass wir tatsächlich fragen müssen, ob wir das wollen. Bei Gesundheitsdaten oder auf dem Arbeitsmarkt gibt es schon Beispiele, die zeigen, dass KI maximal diskriminiert. Da kann die künstliche Intelligenz nichts dafür. Die arbeitet mit den Datensätzen, die sie hat – und die kommen aus dem echten Leben, wo Privilegien ungleich verteilt sind. Die Technologie spiegelt das nur wider. Wir tun oft so, als könnte künstliche Intelligenz die Zukunft vorhersagen. Aber eigentlich reproduziert sie die Vergangenheit.
Wie äußern sich ungerechte Algorithmen in der Praxis?
Zum Beispiel haben die Sprachassistenten von Google und Co. die Stimmen von Frauen lange schlecht verstanden, weil sie nur durch männliche Stimmen trainiert wurden. Auch Siri, die zu Beginn auf sexistische Sprüche mit dem Satz reagiert hat: "Ich würde jetzt rot werden, wenn ich könnte", wurde durch Männer programmiert.
Unangenehm.
Ein weiteres Beispiel ist die fehlerhafte Gesichtserkennung, die 2018 ans Licht kam. Die KI-Software dreier US-amerikanischer Anbieter konnte Menschen mit dunkler Hautfarbe bis zu 40 Prozent schlechter erkennen als weiße Personen. Fast jede dritte Frau mit dunklerer Hautfarbe wurde sogar gar nicht erkannt oder falsch als Mann identifiziert, weil das System vor allem mit Daten weißer Männer trainiert wurde. Wenn solch künstlich "intelligente" Videoüberwachung einem Menschen aber fälschlicherweise einen kriminellen Akt zuordnet, ist das eine Katastrophe.
Noch ein Beispiel?
Als drittes Beispiel fällt mir das autonome Fahren ein. In Japan haben autonome Busse im Jahr 2021 Menschen mit Sehbehinderungen angefahren, weil sie Blindheit nicht einkalkulierten. Was ist mit Menschen im Rollstuhl? Erkennt das Auto darin mehr als einen Gegenstand? Solche System-Lücken benachteiligen Gruppen, die ohnehin diskriminiert sind.
KI-Entscheidungen an kritischen Stellen wie der Kriegsführung oder dem Justizsystem sollen von Menschen abgenickt werden.
Studien zeigen aber, dass Menschen Maschinen nur selten widersprechen, besonders wenn das Thema komplex ist. Wenn der Computer hohe Datenmengen analysiert und eine Entscheidung vorschlägt, tendieren Personen dazu, "Ja" zu klicken. Sie geben diese Entscheidung quasi ab. Das sind psychologische Faktoren, die wir besprechen müssen, bevor wir uns auf solche "Human-in-the-Loop"-Systeme verlassen.
Wie hält man KI im Schach?
Es braucht regulatorische Politik auf globaler Ebene. Wir sehen schon an Facebook und Co., wie kompliziert das ist. Betriebs- und Geschäftsgeheimnisse können aber keine Rechtfertigung für Intransparenz sein, bei Themen, die unsere Leben betreffen. Man muss regulatorisch eingreifen, um diese technischen Systeme zum Guten nutzen zu können.
Das ist auch eine Hoffnung: Dass KI die Chance birgt, Diskriminierungen zu beseitigen.
Das ist immer wieder ein Argument, weil KI neutral sei und daher gerecht. Das ist de facto aber nicht der Fall. Ich persönlich glaube nicht an technische Fixes für gesellschaftliche Probleme.
Weil KI unsere Entscheidungen imitiert?
Sozusagen. Amazon hatte vor kurzem ein KI-System im Personalsystem eingesetzt, um Bewerber:innen ganz objektiv auswählen. Dann stellte man fest, dass das System nur weiße Männer einstellen wollte. Warum? Weil das System gefüttert war mit dem Status quo. Und laut dem waren es weiße Männer, die mit größter Wahrscheinlichkeit Karriere machten.
"Woman 4 Ethical AI" hat sich gegründet, um solchen Diskriminierungen in der KI-Entwicklung entgegenzuwirken.
Es ist immer eine gute Idee, möglichst viele Stimmen in die Entwicklung einzubinden, in dem Fall die von Frauen. Aber oft verbleibt es im zahnlosen Bereich. So hat die UNESCO ein Whitepaper herausgegeben, was sehr gut die Probleme aufzeigt, aber wenig Lösungen liefert.
Was wäre ein erster Ansatz?
Transparenz zu fordern. Wir als Zivilgesellschaft haben viel zu wenig Einblick, wie diese Systeme ihre Entscheidungen treffen. Zum Teil wissen das die Unternehmen nicht mal selbst, weil das Zurückverfolgen nicht so einfach ist, wie bei einer Blackbox. Doch wenn wir keine Transparenz über den Prozess der Entscheidungsfindung haben, können wir das Ergebnis nicht valide bewerten.
Bei wissenschaftlichen Studien ist es Usus, zu kommunizieren: Wer wurde befragt? Über welchen Zeitraum? – Wäre so eine Einordnung bei KI-Einsätzen nicht denkbar?
Es gibt Personen in der IT-Branche, die genau das fordern. Kund:innen und Nutzer:innen von KI müssen nachvollziehen können, welche Daten eingeflossen sind und welches Gewicht sie erhalten. Gerade wenn KI-Systeme in hochsensiblen Bereichen eingesetzt werden, kann man nicht sagen: "Naja, das lässt sich nicht aufschlüsseln. Egal, das Risiko kaufe ich mit."
Was muss daher jetzt passieren?
Wir brauchen einen gesellschaftlichen Diskurs über KI. Das schreckt viele ab, denn 90 Prozent der Menschen haben wenig Kenntnis in Informatik. Die braucht man aber gar nicht. Es geht um grundsätzliches: Wollen wir als Gesellschaft solche Systeme? Und wenn ja, wo wollen wir sie einsetzen? KI geht nicht mehr weg. Daher müssen wir einen Umgang damit finden, es geht nicht anders.