Urlaubsplanung mit ChatGPT: Fehlerhafte Informationen können lebensgefährlich sein
Gerade im Alltag vieler jüngerer Menschen haben sich KI-Tools wie ChatGPT bereits fest etabliert. In der Schule oder Uni helfen sie beim Verfassen von Hausaufgaben oder Bachelorarbeiten. Im Alltag helfen sie bei Einkaufslisten oder Plänen für den nächsten Urlaub.
Eine Umfrage von "Global Rescue" hat kürzlich gezeigt, dass mittlerweile 40 Prozent der Reisenden unter 35 Jahren mit KI-Tools bei der Reiseplanung experimentieren. Manche lassen sich etwa bei der Recherche zu passenden Reisezielen oder Restaurants helfen oder sich direkt einen gesamten Trip durchplanen.
Flug, Hotel, Sehenswürdigkeiten: Das alles kann ChatGPT theoretisch in Sekundenschnelle zusammenstellen. Doch blind darauf vertrauen sollten User:innen lieber nicht.
Japan: KI-Tools führt Paar auf Berg in die Irre
Zu dieser Erkenntnis ist zumindest Dana Yao gekommen. Die Reisebloggerin ließ ChatGPT eine romantische Wanderung zum Berg Misen in Japan für sich und ihren Ehemann planen. Nach einer Erkundungstour in der Stadt Miyajima seien sie auf Empfehlung des KI-Chatbots gegen 15 Uhr aufgebrochen, um vom Berggipfel den Sonnenuntergang zu genießen, erklärt Yao gegenüber BBC.
Um zurück ins Tal zu gelangen, wollten die beiden eigentlich die Seilbahn nutzen. Doch entgegen der Informationen von ChatGPT sei die schon vor 17.30 Uhr geschlossen gewesen. "Also saßen wir am Berggipfel fest", erzählt Yao.
Wie das Paar mit der Situation umging, geht aus dem Bericht nicht hervor. Aber dass Urlauber:innen durch KI-Tools in die Irre geführt werden, scheint kein Einzelfall zu sein.
Miguel Angel Gongora Meza, ein Reiseführer aus Peru, berichtet der BBC etwa von einem denkwürdigen Vorfall: Als er sich vor einiger Zeit auf eine Wanderung in den Anden vorbereiten wollte, hörte er zufälligerweise das Gespräch zweier Reisender mit, die sich darüber freuten, dass sie bald den "Heiligen Canyon von Humantay" durchwandern wollten.
Den hatte ihnen offenbar ein KI-Tool empfohlen. Das einzige Problem dabei: Dieser Canyon existiert nicht. "Sie zeigten mir den Screenshot, selbstbewusst geschrieben und voller lebendiger Adjektive", erzählt der Peruaner. "Der Name ist eine Kombination aus zwei Orten, die nichts mit der Beschreibung zu tun haben."
Fast 160 Dollar sollen die Tourist:innen allein dafür bezahlt haben, um in die Nähe des vermeintlich abgelegenen Canyons zu kommen.
Reiseplanung mit KI kann lebensgefährlich werden
So viel Geld verloren zu haben, dürfte für die Urlauber:innen ärgerlich gewesen sein. Aber es hätte wesentlich schlimmer für sie ausgehen können. "Solche Fehlinformationen sind in Peru gefährlich", erklärt Meza. Gegenüber der BBC führt er aus:
Es muss nicht immer ein Plan für eine Wanderung sein, die in einem Desaster enden könnte. Die BBC berichtet in einem weiteren Artikel zum Beispiel von einer Frau, die sich von einem KI-Tool Restaurants mit glutenfreien Speisen empfehlen lassen wollte.
Sie plante eine Reise mit einem Freund, der mit einer Unverträglichkeit lebte. Doch auf die Vorschläge der KI konnte sie sich nicht verlassen, viele waren veraltet oder schlicht falsch. "Ich musste jeden Vorschlag manuell vergleichen, um zu sehen, ob der Ort überhaupt noch geöffnet war", erklärt die Frau. Ein enormer Zeitaufwand.
Auch bei der Planung eines mehrtägigen Urlaubs sei die KI nicht überzeugend gewesen. "Es wurden alle beliebten Aktivitäten aufgelistet, die man auch bei einer normalen Google-Suche finden würde, und die Reiserouten waren nicht besonders logisch", meint die Urlauberin.
Sie rät deshalb, Tools wie ChatGPT lediglich als Inspirationsquelle zu nutzen. Ansonsten sollte man lieber selbst die Planung übernehmen.