Historie turystów, którzy korzystając z aplikacji podróżniczych, wyszli na tym jak Zabłocki na mydle, opisał w artykule dla BBC dziennikarz Lynn Brown. Wśród nieszczęśliwców dających się zwieść AI znalazła się para planująca trekking w Andach.
Święty Kanion Humantay. Nie ma takiego
Właśnie szukali drogi do Świętego Kanionu Humantay, kiedy ich rozmowę usłyszał przypadkiem Miguel Angel Gongora Meza, założyciel i dyrektor firmy turystycznej specjalizującej się w etycznych i zrównoważonych trekkingach w Peru.
– Pokazali mi zrzut ekranu. Tekst był napisany pewnym tonem i pełen barwnych przymiotników, ale to nie była prawda. Nie istnieje żaden Święty Kanion Humantay – powiedział Gongora Meza, cytowany przez BBC.
I dodał: – Nazwa była połączeniem dwóch miejsc, które nie mają ze sobą nic wspólnego. Turyści zapłacili prawie 160 dolarów (ok. 584 zł), by dotrzeć na wiejską drogę w okolicach Mollepaty – bez przewodnika i bez rzeczywistego celu.
Pomyłka byłaby nawet zabawna, gdyby nie fakt, że trekking w peruwiańskich górach jest bardzo wymagający i niewłaściwe przygotowanie do niego może kosztować wędrowca życie.
– Można nagle znaleźć się na wysokości 4000 m n.p.m., bez tlenu i bez zasięgu – skwitował Gongora Meza.
Utknęli na szczycie. Kolejka linowa miała działać, nie działała
O szkodliwości bezgranicznego zaufania do sztucznej inteligencji przekonało się również małżeństwo planujące romantyczną wędrówkę na szczyt góry Misen w Japonii. Ich celem było zobaczenie zachodu słońca na wysokości 535 metrów, a następnie zjazd kolejką linową.
Według ChatGPT wyciąg miał działać do 17:30, jednak w rzeczywistości był już zamknięty. Dana Yao i jej mąż utknęli na szczycie.
„Cześć, zaplanuję dla ciebie wycieczkę”
Cześć, jestem Layla, twój planista podróży wykorzystujący AI. Powiedz mi, jaki masz budżet i styl podróżowania, a zaplanuję dla ciebie wycieczkę – brzmi zachęcające przywitanie na stronie layla.ai, narzędzia do planowania podróży.
Tymczasem w artykule BBC czytamy, że przez pewien czas Layla informowała użytkowników o istnieniu… wieży Eiffla w Pekinie.
Z kolei brytyjskiemu turyście zaproponowała trasę maratonu wiodącą przez północne Włochy. Jej wykonanie było nierealne. – Więcej czasu spędzilibyśmy w transporcie niż na zwiedzaniu – podsumował podróżnik.
Dlaczego ChatGPT podaje nieprawdziwe informacje?
Choć sztuczna inteligencja stała się nieodzownym elementem naszego życia, a w rozmowach towarzyskich nie brakuje westchnień nad tym, jak skończyliśmy bez niej studia, napisaliśmy prace dyplomowe czy urządziliśmy mieszkania, ten technologiczny wytwór ma w sobie jeszcze sporo niedociągnięć.
– Nie rozróżnia porad podróżniczych, wskazówek czy przepisów kulinarnych. Zna tylko słowa. I po prostu układa je tak, by brzmiały realistycznie – stąd biorą się wszystkie problemy – wyjaśnia Rayid Ghani, profesor uczenia maszynowego z Carnegie Mellon University, cytowany przez BBC.
Sztuczna inteligencja analizuje ogromne zbiory tekstów i zdjęć, łączy słowa i frazy, które teoretycznie do siebie pasują. Raz z sukcesem, innym razem tworząc tzw. „halucynacje”, czyli nieprawdziwe informacje. A że oba elementy są prezentowane w ten sam sposób, użytkownikom trudno odróżnić, co jest prawdą, a co fikcją.
Zasada ograniczonego zaufania
Turyści zdają się jednak nie zrażać niedoskonałościami AI. Według wyników Global Rescue Summer 2025 Traveler Safety and Sentiment Survey (Ankiety dot. Bezpieczeństwa i Nastrojów Podróżniczych Lato 2025), 30 proc. podróżników z całego świata korzysta ze sztucznej inteligencji oraz stron takich jak Layla czy Wonderplan w celu zaplanowania swojego wyjazdu.
Obserwując rozwój AI możemy zaryzykować stwierdzenie, że ta liczba będzie wzrastać. I nie ma w tym nic złego, dopóki zachowamy zdrowy rozsądek i – niczym w podróży – zasadę ograniczonego zaufania.
Propozycje ChatGPT czy innego programu zawsze warto zweryfikować w kilku źródłach. Nie tylko po to, aby nie wydawać niepotrzebnie pieniędzy czy nie szukać fikcyjnej atrakcji, ale przede wszystkim dlatego, żeby nie narażać się na niebezpieczeństwo.