Künstliche Intelligenz (KI) ist längst ein fester Bestandteil im Alltag vieler Menschen. Ob beim Navigieren mit dem Smartphone, beim Vorschlagen passender Musik oder beim Online-Shopping – überall begegnet uns KI und macht uns im besten Fall auch das Leben etwas leichter.
KI-Modelle wie Chatgpt werden ständig weiterentwickelt und verarbeiten unvorstellbar große Datenmengen. Mit jedem Suchvorgang, jeder Sprachanfrage oder jeder neuen Nutzerinteraktion verbessert sich ihre Fähigkeit, Muster zu erkennen und passende Antworten zu liefern.
Das mag auf den ersten Blick vorteilhaft klingen, aber gleichzeitig steigt so auch das Risiko, dass wir KI-generierte Inhalte immer seltener von echten, durch Menschen erstellte Inhalte unterscheiden können. Schon jetzt fallen im Internet immer wieder User:innen auf sogenannte Deepfakes herein, also gefälschte Bilder oder Videos, die täuschend echt aussehen.
Und genau das kann ernsthafte Konsequenzen haben, wie nun ein Beispiel aus Malaysia zeigt. In dem südostasiatischen Land hat nämlich ein älteres Ehepaar ein Video über eine Seilbahn vor atemberaubender Kulisse gesehen und sich kurzerhand entschieden, dorthin zu reisen, um den Anblick mit eigenen Augen zu genießen.
Das Problem: Die Seilbahn existiert gar nicht. Das Video, dass das Ehepaar gesehen hat, war komplett KI-generiert. Genau das stellten die beiden Reisenden aber offenbar erst fest, nachdem sie rund 370 Kilometer von der Hauptstadt Kuala Lumpur nach Kuak Hulu gefahren waren.
Wie unter anderem "Independent" berichtet, teilte eine Hotelangestellte aus der Region diese Geschichte auf Social Media. Demnach soll das Paar sie im Hotel gefragt haben, ob sie schon die Seilbahn gefahren sei. "Ich war so schockiert … Ich erklärte der Frau, dass das Video (von einer KI erstellt) und nicht echt sei", zitiert die Zeitung aus dem Post der Hotelmitarbeiterin.
Die ältere Frau soll daraufhin überrascht gefragt haben, warum jemand lügen sollte. Zumal sie unter dem Video, in dem die Seilbahn beworben wurde, keine Kommentare gefunden hätte, die auf eine Fälschung hingedeutet hätten.
Daraufhin soll die Hotelangestellte die Frau erinnert haben, dass auch die Menschen in dem Video nicht existierten. Seine Kinder habe das Paar vor ihre Reise nicht bezüglich der Echtheit des Videos gefragt.
Die Geschichte mag auf den ersten Blick amüsant wirken, aber so ist sie doch ein Beleg dafür, dass KI-generierte Inhalte gerade für ältere Menschen immer schwieriger zu enttarnen sind. Das besagte Video findet sich immer noch online und dürfte selbst einige jüngere Menschen zum Stutzen bringen.
Der ganze Clip ist wie eine Reportage eines Nachrichtenmagazins angelegt. Zu Beginn sieht man eine Reporterin, die in einem Auto sitzt und mit dem imaginären TV-Publikum offenbar in der Landessprache erste Informationen zur Seilbahn teilt.
Anschließend sieht man einen Parkplatz mit vielen Menschen, über den die Seilbahn hinwegführt. Außerdem ist ein Ticketschalter zu sehen. Die KI-generierte Reporterin informiert in dem fast dreiminütigen Clip weiter über die Attraktion und spricht dafür mit mehreren "Besucher:innen". Am Ende kauft sie sich sogar selbst ein Ticket und steigt in die Seilbahn ein, die es in Wirklichkeit nicht gibt.
Gerade für Menschen, die das Video nur nebenbei oder vielleicht auf einem kleinen Handy-Screen schauen, können die Bilder täuschend echt wirken. Doch wenn man genau hinsieht, verändert sich das Gesicht der KI-Reporterin im Lauf des Videos immer wieder.
Außerdem sind einige Hinweisschilder fehlerhaft. Über der Ticketstelle zu Beginn des Videos ist beispielsweise "Kuak SkyRide Ticket Conter" zu lesen. Korrekt müsste es allerdings "Ticket Counter" heißen. Solche winzigen Details sind aber wohl gerade für Menschen, mit wenig Englisch-Kenntnissen nicht direkt ersichtlich.
Das virale KI-Video hat dem "Independent" zufolge in der Zwischenzeit die Behörden auf den Plan gerufen. Ein Bezirksbeamter aus der Region habe klargestellt, dass das Seilbahn-Projekt nicht existiere. "Aber ich gebe zu, es war spannend anzusehen. Wir waren gut unterhalten, auch wenn es nur KI-generierte Inhalte waren", wird der Beamte zitiert.
Der Polizeichef des Bezirks Baling hat die Öffentlichkeit derweil gewarnt, solche Inhalte nicht ungeprüft über Social Media weiterzuverbreiten. Meldungen über Betrugsfälle seien bei ihm im Zusammenhang mit dem Seilbahn-Video nicht eingegangen.
Ermittlungen scheint es also nicht zu geben. Falls solche Inhalte aber zu Unruhen oder einer Gefährdung der öffentlichen Ordnung führten, dann könne man nach geltendem Recht einschreiten.