Digital
Bild

Erfassung von Körpermerkmalen. Symbolbild. bild: imago images / jochen tack

Die Deepnude-App erzeugt Fake-Nacktfotos von Frauen – ohne Einwilligung der Betroffenen

Daniel Schurter / watson.ch

"Diese schreckliche App zieht das Foto einer beliebigen Frau mit einem einzigen Klick aus."

Titel des Online-Mediums Motherboard.

Was ist Deepnude?

Ein Programmierer hat eine App entwickelt, mit der sich Fotos von Frauen in Nacktbilder umwandeln lassen.

Dabei handelt es sich selbstverständlich um Fälschungen. Aber um gut gemachte, die je nach Vorlage täuschend realistisch aussehen können.

Möglich ist dies dank raffinierter Algorithmen, die bei der automatischen Bildbearbeitung zum Einsatz kommen. Ein sogenanntes neuronales Netzwerk wurde darauf trainiert, Aufnahmen von bekleideten weiblichen Körpern so zu manipulieren, dass realistisch wirkende Nacktbilder entstehen.

Wer steckt dahinter?

Ein Programmierer aus Estland.

Das Online-Medium Motherboard berichtete am 26. Juni über Deepnude, nachdem der Programmierer begonnen hatte, die Software für 50 Dollar zu verkaufen.

Am darauffolgenden Tag nahm der Programmierer, der unter dem Pseudonym Alberto auftritt, die Webseite offline. Angeblich wegen des unerwartet großen Ansturms und wegen potenzieller Gefahren.

Via Email ließ der Deepnude-Programmierer verlauten, er habe moralische und ethische Bedenken. Da er nicht für eine solche Technologie verantwortlich sein wolle, habe er entschieden, die Arbeit daran einzustellen.

Die Webseite www.deepnude.com verweist lediglich auf ein gleichnamiges Twitter-Profil. Dort schreibt der mutmaßliche Entwickler, trotz der Sicherheitsmaßnahmen (digitales Wasserzeichen etc.) sei das Missbrauchspotential zu groß. Er habe darum das Projekt gestoppt. Und:

"Die Welt ist noch nicht bereit für Deepnude."

Unbekannter Entwickler.

Was ist das Problem?

Die Software ist bereits im Umlauf und wird im Internet weiterverbreitet.

Am Montagmorgen sperrte die Chat-Plattform Discord einen ersten Kanal, der eine Version von Deepnude verkaufte. Seither wurden zahlreiche Kanäle gesperrt, deren Adressen bei Reddit publiziert wurden und die zum Teil damit lockten, aus Privataufnahmen von Usern Nacktbilder zu erstellen.

Laut Discord verstößt Deepnude gegen die Community-Richtlinien der Plattform. Diese verbieten das Teilen oder Verlinken von Inhalten "mit der Absicht, eine andere Person zu beschämen oder zu erniedrigen", wie auch die Förderung sexuell eindeutiger Inhalte ohne Zustimmung der betroffenen Person.

Wie viele Kopien von der Deepnude-Software bereits in Umlauf sind, ist nicht bekannt. Ab dem 23. Juni konnte eine für Windows 10 und für Linux verfügbare Gratis-Version von der Deepnude-Webseite heruntergeladen werden.

Motherboard konnte das Programm laut eigenen Angaben auf einem Windows-Rechner testen. Es erforderte keine technischen Kenntnisse. In der kostenlosen Version der App seien die erstellten Nacktbilder teilweise mit einem großen (digitalen) Wasserzeichen versehen gewesen.

Es wird bereits davor gewarnt, die Deepnude-Software von unbekannten Quellen herunterzuladen. Tatsächlich stößt man bei der Websuche auf zahlreiche Links, die angeblich eine entsprechende Android-App (APK) bieten. Dabei handle es sich um betrügerische Angebote, um Usern Geld aus der Tasche zu ziehen oder Malware zu verbreiten.

Was hat Deepnude mit Deepfake zu tun?

Als Deepfake werden täuschend echt wirkende Videos bezeichnet, bei denen das Gesicht einer Person durch das einer anderen Person ersetzt wird ("Face Swap"). Die technische Vorgehensweise ist die gleiche. Das heißt, es wird künstliche Intelligenz missbräuchlich verwendet, um Fake-Videos ohne Einwilligung der Betroffenen zu erstellen.

Motherboard hatte Ende 2017 über das Phänomen berichtet und die Bezeichnung Deepfake bekannt gemacht.

Auch wenn sich der Deepnude-Erschaffer nur als "ein Programmierer mit einem Interesse am maschinellen Lernen" darstellt: Seine Arbeit könne das Leben unschuldiger Opfer zur Hölle machen, hält Motherboard fest. Dies habe die Verbreitung gefälschter Rachepornos gezeigt, die mit der Deepfake-Technologie erstellt wurden. Das Herumbasteln an Frauenkörpern sei ein schädliches, manchmal lebenzerstörendes Unterfangen für die Opfer solcher "Enthusiasten".

Macht man sich mit DeepNude strafbar?

Das Herunterladen, Installieren und Ausprobieren der App an sich ist nicht verboten. Der Programmierer hat seine Software auch nicht urheberrechtlich schützen lassen.

Die Verbreitung gefälschter Nacktaufnahmen ohne Zustimmung der betroffenen Person ist illegal, kann strafrechtlich verfolgt werden und zu einer Verurteilung führen.

Wer Deepnude-Aufnahmen weiterverbreitet, die von Dritten erstellt wurden, macht sich ebenfalls strafbar. Dies gilt auch für Bilder, die via Whatsapp verschickt werden.

Wie gut funktioniert das?

Motherboard hat die Deepnude-App (für Windows) getestet. Mit mehr als einem Dutzend Bilder von Frauen und Männern, in unterschiedlich bekleidetem Zustand – von vollständig angezogen bis zum "Schnurbikini" – und mit einer Vielzahl von Hauttönen. Die Ergebnisse variierten dramatisch.

Wenn man ein gut beleuchtetes, hochauflösendes Bild einer Frau im Bikini mit direktem Blick auf die Kamera verwende, seien die gefälschten Nacktbilder durchaus realistisch, hält Motherboard fest. Der Algorithmus fülle Details genau aus, wo vorher Kleidung war, oder die Position der Brüste unter der Kleidung, Brustwarzen und Schatten.

Die Deepnude-Software funktioniere alles andere als fehlerfrei. Bei den meisten Bildern, und insbesondere bei Bildern mit niedriger Auflösung, gebe es visuelle Artefakte. Und im Test scheiterte die Software komplett an Aufnahmen mit ungewöhnlicher Beleuchtung oder Kleidung. Dies scheine das verwendete neuronale Netzwerk massiv zu stören.

Folgt eine Version für Männer-Körper?

Durchaus möglich.

Der Algorithmus funktioniere nur mit Frauen, weil Bilder von nackten Frauen einfacher online zu finden seien, ließ der anonyme Programmierer von Deepnude gegenüber Motherboard verlauten. Aber er hoffe, auch eine männliche Version zu erstellen, sagte er, bevor das Projekt große Wellen schlug. Ob er an diesem Plan festhält, ist nicht bekannt.

Laut seinen Angaben basiert die Software auf pix2pix, einem Open-Source-Algorithmus, der 2017 von Forschern der University of California in Berkeley entwickelt wurde.

Diese 16 Bilder zeigen, wie blöd unsere Gesellschaft doch manchmal ist

Schuhe aus!

Play Icon

Das könnte dich auch interessieren:

Amthor führt bei Lanz alle hinters Licht – jetzt will er Teile des Rezo-Videos liefern

Link zum Artikel

Torwart-Zoff: Hoeneß hat mit einer Sache recht – doch er wird dem FC Bayern schaden

Link zum Artikel

Dagmar Michalsky wurde mit 58 schwanger – bei Lanz spricht sie von "neun Monaten Horror"

Link zum Artikel

Wolfgang Joop über Heidi Klums Ehe: "Hat sich mit jedem Mann verändert"

Link zum Artikel

Lena rappt über Sex mit sich selbst bei "Gemischtes Hack"

Link zum Artikel

Diese Szenen zeigen: Nicht mal die Experten sind von der Hartz-IV-Show "Zahltag" überzeugt

Link zum Artikel

Barça-Keeper vor Linie: Wieso der VAR bei größter BVB-Chance nicht eingriff

Link zum Artikel

"Steh auf" – Rammstein-Sänger verstört Fans mit Video

Link zum Artikel

Tiere: 11 Fotos, die zeigen, wie lustig es in der Natur manchmal zugeht

Link zum Artikel

Helene Fischer verdient an "Herzbeben" – Songwriterin verrät, was sie für den Hit bekam

Link zum Artikel

"Hart aber Fair": Altmaier warnt vor "Klimapolizei" – und wird von Aktivistin verspottet

Link zum Artikel

Nach Höcke: ZDF will auch künftig über das berichten, was "AfD nicht gerne im Fokus sieht"

Link zum Artikel

Hai pirscht sich an ahnunglosen Surfer heran: Dann kommt Hilfe – von oben!

Link zum Artikel

Brief ans Jobcenter: Hört auf, meine über 60-jährige Mutter in Jobs zu drängen

Link zum Artikel

Gottschalk über Helene Fischer und Florian Silbereisen: "Hatte immer schlechtes Gefühl"

Link zum Artikel

Bei Pressekonferenz nach BVB-Sieg: Favre merkt nicht, dass Mikro schon an ist

Link zum Artikel

Luke Mockridge macht Andrea Kiewel in seiner Show ein Angebot – die blockt ab

Link zum Artikel

Kontakt mit 2 Bundesliga-Stars – warum der FCB trotz allem keinen Lewandowski-Backup holte

Link zum Artikel

Luke Mockridge traf Kiwi kurz vor ZDF-Auftritt: Er täuschte beim "Fernsehgarten" alle

Link zum Artikel

Krankenschwester warnt bei Maischberger: "Wir laufen auf eine riesige Katastrophe zu"

Link zum Artikel

Luke Mockridge über die Folgen seines ZDF-Auftritts: "Meine Eltern erhielten Hassbriefe"

Link zum Artikel

Hartz-IV-Show "Zahltag": Wie die Sendung falsche Hoffnungen schürt

Link zum Artikel

Alleinerziehend mit Hartz IV: Achtjährige sammelt Flaschen, um Taschengeld zu bekommen

Link zum Artikel

"Zahltag": Buschkowsky erklärt, warum ein Geldkoffer Hartz-IV-Empfängern nicht hilft

Link zum Artikel

2 Handelfmeter? Darum gab es für die DFB-Elf gegen Nordirland keinen Videobeweis

Link zum Artikel

In Berlin gab es eine Notlandung mit mehreren Verletzten

Link zum Artikel

Helene Fischer und Thomas Seitel: Polizei spricht von Einsatz auf ihrem Anwesen

Link zum Artikel

7 Zitate, die zeigen, wie "bürgerlich" Alexander Gauland wirklich ist

Link zum Artikel
Alle Artikel anzeigen
Themen
0
Bubble Weil wir die Kommentar-Debatten weiterhin persönlich moderieren möchten, sehen wir uns gezwungen, die Kommentarfunktion 48 Stunden nach Publikation einer Story zu schliessen. Vielen Dank für dein Verständnis!
0Alle Kommentare anzeigen

Lustiges Altern mit FaceApp oder Datenkrake Russlands? Experten streiten

Man vergisst es beim aktuellen Hype gerne. Aber es ist noch keine zwei Jahre her, da sorgte FaceApp für einen handfesten Skandal. Damals ging es um die Foto-Filter der Spaß-App. Sie erlaubten es einem, verschiedene "Rassen" anzunehmen: Weiß, Schwarz, Indisch, Asiatisch.

Das Tech-Magazin "The Verge" bezeichnete das damals als rassistisches "digitales Blackfacing". Allerdings denkt gerade kaum jemand mehr an diese Vorwürfe. Seit rund einer Woche können User – darunter bekannte Politiker, …

Artikel lesen
Link zum Artikel