Dass so manche Programmierer:innen oberflächlich wie auch sexistisch sind, sollte spätestens seit Zuckerbergs "Facemash" klar sein. Damals brachte der Meta-CEO (und Verfechter von "mehr männlicher Energie") eine Seite an den Start, auf der User:innen von zwei angezeigten Personen die "heißere" aussuchen konnte.
Derlei Bewertungssysteme zeugen nicht nur von schlechtem Geschmack, sondern sind auch nicht unbedingt untypisch. Ein junger Programmierer führt diesen pubertären Irrsinn noch einen Schritt weiter.
Auf seiner Seite "Looksmapping" bekommen Besucher:innen zu sehen, welche Restaurants eine besonders "attraktive" Kundschaft haben. "Rot bedeutet heiß, blau bedeutet nicht heiß", lautet der Erklärtext dazu. Der Fokus liegt dabei auf US-Metropolen.
"Sehen Sie, welche Restaurants die attraktivsten Gäste haben laut KI!", heißt es direkt unter dem Logo von "Looksmapping". Der Programmierer, Riley Walz, habe "Millionen von Restaurantbewertungen auf Google Maps gesammelt und das Profilbild jedes Bewerters an ein KI-Modell weitergegeben, das die Attraktivität auf einer Skala von eins bis 10 bewertet."
Dabei kam ein Stadtplan von New York, Los Angeles und San Francisco zustande, auf dem unzählige Standorte mittels blauer oder roter Stecknadel markiert sind. Wer auf eine der Nadeln klickt, bekommt anschließend eine exakte Punktbewertung zu sehen, eine Skala von eins bis zehn. "Looksmapping" kann auch nach Alter und Geschlecht sortieren.
In einem Dokument hält Walz fest, wie die Bewertungen zustande kommen. 9834 Google-Maps-Bewertungen habe sein Programm erfasst, geschrieben von 1,5 Millionen Menschen. Mit einem CLIP-Modell, einem Verfahren, mit dem man bei Bildern die passendste Bildunterschrift vorhersagen kann, hat er mit Phrasen wie "Sie ist attraktiv" und "Er ist hässlich" vorgegeben.
Walz selbst schreibt, dass das Modell sicherlich fehlerhaft und voreingenommen sei, es aber oberflächliche Beobachtungen, die wir jeden Tag machen, mit Zahlen unterlegt. "Sie hält unserer kollektiven Eitelkeit einen Spiegel vor", schreibt er.
Der "New York Times" sagt er: "'Looksmapping' macht sich über künstliche Intelligenz lustig." Ein Satireprojekt, wenn jemand es denn so nennen möchte. Es wäre nicht sein erstes. So war er einer der drei Köpfe hinter dem "Mehran's Steak House"-Fake.
Die Witzbolde erfanden ein Restaurant mit einer nahezu perfekten Google-Bewertung. Es kam zu zahllosen Reservierungen, weshalb das Steakhouse für einen Abend öffnete. Wohin dieser Joke genau führen sollte, ist schwer zu sagen. Genauso unklar ist, wo die Pointe bei "Looksmapping" liegt.
So richtig satirisch ist die Seite nicht, dafür aber wohl rassistisch. So kritisierte Food-Autorin Soleil Ho, dass der "Looksmapping"-Algorithmus eine Vorliebe für Asiat:innen zu haben scheint und gegenüber Lokalen, die viele schwarze Menschen besuchen, voreingenommen sei. In der KI-Welt ist das nichts Neues. Die Modelle übernehmen diskriminierende Annahmen aus den Datensätzen, mit denen sie trainiert werden.