Manuel Neuer ist erfahren im Umgang mit der Öffentlichkeit. Der Keeper beim FC Bayern prüft dementsprechend genau, mit wem er Werbekooperationen eingeht. So ist er etwa Markenbotschafter für den Reifenhersteller Michelin in Deutschland. Immer wieder macht er auch Werbung für Modemarken, kürzlich etwa für Adidas. Als einer der bekanntesten Profis im deutschen Fußball muss er penibel darauf achten, mit wem er zusammenarbeitet. Nicht zuletzt, um seinen Klub nicht in Verruf zu bringen.
Umso verwirrender dürfte für Fans ein Video sein, das derzeit auf verschiedenen Social-Media-Plattformen kursiert. Es stammt aus einer Anzeige. Darauf ist Manuel Neuer zu sehen, wie er Werbung für eine App macht. Die wirkt jedoch alles andere als seriös.
Manuel Neuer sitzt auf einer Bank. Seine Stimme ist zu hören, die von der App "Strategic Focus" schwärmt: "Ich werde dir einen Tipp geben, wie du in kurzer Zeit zehntausend Euro oder mehr verdienen kannst", heißt es in dem Werbe-Video etwa. Nicht nur der Inhalt ist fragwürdig. Wer genau hinsieht, bemerkt, dass mit der Aufnahme etwas nicht stimmt. So sagt die Stimme etwa: "Laden Sie zunachst die App 'Stratetic Focus' herunter." Statt "zunächst" sagt er also "zunachst". Zudem klingt die Stimme nicht so flüssig, wie man es von dem Bayern-Keeper erwarten würde.
Schnell wird klar: Die Stimme ist ein Fake, vermutlich generiert durch eine Künstliche Intelligenz (KI). Mithilfe der Identität von Fußball-Profi Neuer versuchen hier offenbar Betrüger:innen, neue Kundschaft für sich zu gewinnen.
Und das auf eine äußerst dreiste Art und Weise.
So fordert die Stimme des 37-Jährigen dazu auf, die App herunterzuladen. Das Argument von "Neuer": Er spiele dort oft selbst Mini-Spiele. Und: "Wenn du Glück hast, kannst du einen anständigen Betrag gewinnen."
Obwohl die Werbung nicht perfekt ist, zeigt sie doch auf, welche Gefahren in der missbräuchlichen Verwendung von KI liegen. Noch sind solche sogenannten Deepfakes zwar meist gut zu erkennen: So wie in diesem Beispiel etwa an nicht synchronen Lippenbewegungen oder ungewöhnlicher Sprechweise. Doch KI entwickelt sich rasant weiter. So wird es wohl nicht mehr lange dauern, bis solche Fake-Videos authentisch und somit potenziell gefährlich sind.
Auch die Bundesregierung warnt auf der Webseite vor Deepfakes:
Schon heute seien gefälschte Videos oft kaum von authentischen zu unterscheiden. Umso wichtiger sei es, die Quelle und die Mimik der sprechenden Personen in Videos genau zu überprüfen. Auch die Bildqualität könne einen Hinweis geben.