
Ihr seid alle schön!Bild: imago / NurPhoto
Digital
KI-Programme sind im Alltag mitunter recht nützlich. Allerdings bergen sie auch zahlreiche Probleme, für die ihre Programmierer:innen verantwortlich sind. Ein Beispiel aus den USA verdeutlicht das.
10.07.2025, 15:1410.07.2025, 15:14
Dass so manche Programmierer:innen oberflächlich wie auch sexistisch sind, sollte spätestens seit Zuckerbergs "Facemash" klar sein. Damals brachte der Meta-CEO (und Verfechter von "mehr männlicher Energie") eine Seite an den Start, auf der User:innen von zwei angezeigten Personen die "heißere" aussuchen konnte.
Derlei Bewertungssysteme zeugen nicht nur von schlechtem Geschmack, sondern sind auch nicht unbedingt untypisch. Ein junger Programmierer führt diesen pubertären Irrsinn noch einen Schritt weiter.
KI-Tool für Attraktivität: Rot heißt hot, blau heißt not
Auf seiner Seite "Looksmapping" bekommen Besucher:innen zu sehen, welche Restaurants eine besonders "attraktive" Kundschaft haben. "Rot bedeutet heiß, blau bedeutet nicht heiß", lautet der Erklärtext dazu. Der Fokus liegt dabei auf US-Metropolen.
"Sehen Sie, welche Restaurants die attraktivsten Gäste haben laut KI!", heißt es direkt unter dem Logo von "Looksmapping". Der Programmierer, Riley Walz, habe "Millionen von Restaurantbewertungen auf Google Maps gesammelt und das Profilbild jedes Bewerters an ein KI-Modell weitergegeben, das die Attraktivität auf einer Skala von eins bis 10 bewertet."
Dabei kam ein Stadtplan von New York, Los Angeles und San Francisco zustande, auf dem unzählige Standorte mittels blauer oder roter Stecknadel markiert sind. Wer auf eine der Nadeln klickt, bekommt anschließend eine exakte Punktbewertung zu sehen, eine Skala von eins bis zehn. "Looksmapping" kann auch nach Alter und Geschlecht sortieren.

So sieht das Ganze aus.Bild: Looksmapping
In einem Dokument hält Walz fest, wie die Bewertungen zustande kommen. 9834 Google-Maps-Bewertungen habe sein Programm erfasst, geschrieben von 1,5 Millionen Menschen. Mit einem CLIP-Modell, einem Verfahren, mit dem man bei Bildern die passendste Bildunterschrift vorhersagen kann, hat er mit Phrasen wie "Sie ist attraktiv" und "Er ist hässlich" vorgegeben.
Walz selbst schreibt, dass das Modell sicherlich fehlerhaft und voreingenommen sei, es aber oberflächliche Beobachtungen, die wir jeden Tag machen, mit Zahlen unterlegt. "Sie hält unserer kollektiven Eitelkeit einen Spiegel vor", schreibt er.
Der "New York Times" sagt er: "'Looksmapping' macht sich über künstliche Intelligenz lustig." Ein Satireprojekt, wenn jemand es denn so nennen möchte. Es wäre nicht sein erstes. So war er einer der drei Köpfe hinter dem "Mehran's Steak House"-Fake.
Ein satirisches Projekt?
Die Witzbolde erfanden ein Restaurant mit einer nahezu perfekten Google-Bewertung. Es kam zu zahllosen Reservierungen, weshalb das Steakhouse für einen Abend öffnete. Wohin dieser Joke genau führen sollte, ist schwer zu sagen. Genauso unklar ist, wo die Pointe bei "Looksmapping" liegt.
So richtig satirisch ist die Seite nicht, dafür aber wohl rassistisch. So kritisierte Food-Autorin Soleil Ho, dass der "Looksmapping"-Algorithmus eine Vorliebe für Asiat:innen zu haben scheint und gegenüber Lokalen, die viele schwarze Menschen besuchen, voreingenommen sei. In der KI-Welt ist das nichts Neues. Die Modelle übernehmen diskriminierende Annahmen aus den Datensätzen, mit denen sie trainiert werden.
Viele Frauen leiden jeden Monat unter Periodenschmerzen. Wer durch vermeintlich einfache Hilfsmittel auf Linderung hofft, sei allerdings gewarnt.
Für die allermeisten Personen mit Uterus ist die Menstruation eine äußerst unangenehme Phase. Nicht, dass man durch mehrtägigen Blutverlust nicht ohnehin schon gebeutelt genug wäre. Meist kommen weitere Beschwerden wie markerschütternde Schmerzen im Unterleib oder heftige Übelkeit dazu.