Az AI által feltalált "Hőforrások" — A turisták megérkeztek és megdöbbentek
Több száz látogatót megtévesztettek Tasmaniában, miután egy AI által generált utazási cikk népszerűsítette a nem létező „Weldborough Hőforrásokat”, ami zavart, panaszokat és a hamis tartalom eltávolítását eredményezte.
Nincs semmi frusztrálóbb, mint az a pillanat, amikor rájövünk, hogy a mesterséges intelligencia egyszerűen kitalált információt, amelyre támaszkodtunk — míg mi felfedezzük, hogy ennek semmi köze a valósághoz.
És mi még frusztrálóbb?
Nincs senki, akit meg lehetne dorgálni, és senki, akit meg lehetne hibáztatni — csak magunkat (később meg fogod érteni, miért).
Százak számára a turisták közül Tasmaniában ez lett a csalódást keltő valóság a nyaralás során, amit elterveztek.
A “Tasmania Tours” utazási weboldal mesterséges intelligenciát (MI) használt a tartalom és képek generálására a webhelyéhez, és tévesen létrehozott egy olyan természeti látványosságot, amely valójában nem létezik: a “Weldborough Hot Springs”-et.
A problémás cikk 2025 júliusában került online, és azóta jelentős webes forgalmat vonzott.
Egy vonzó kép mellett az elképzelt forrásokat “a fák szívében lévő békés menedékként” és olyan helyként írta le, amely “autentikus kapcsolatot kínál a természettel”.
A csábító szöveg ígérte a látogatóknak a “gyógyító ásványokban gazdag” vizekben való fürdőzést, és a helyszínt a “legjobb hét forrás helyszínének” rangsorolta Tasmania számára 2026-ra.
“A zűrzavar csúcsán napi öt telefonhívást kaptam, és egész csoportok jöttek a szállodába, kérdezve, hol vannak a források,” mondta egy helyi kocsma tulajdonosa.
“Azt mondtam nekik: ‘Ha megtaláljátok a forrásokat, gyertek vissza és mondjátok el, én pedig egész éjjel fizetem a sört.’ Senki sem jött vissza”.
A turisták csapdába esését az okozta, hogy az MI elég kifinomult volt ahhoz, hogy összemosni a valóságot és a hamisságot: a kitalált források egy olyan listán szerepeltek, amely teljesen valódi, jól ismert látnivalókkal volt tele, mint például a Hastings-barlangok, ami a információnak magas fokú hitelességet adott.
A cikket AI által generált, pasztorális képek kísérték, amelyek gőzölgő medencéket ábrázoltak a vadonban, ami végül még a kételkedőket is meggyőzte.
A Weldborough-i valóság, az sziget északkeleti részén fekvő vidéki városban, teljesen más volt.
Ott nincsenek forró források, és sosem voltak.
Az egyetlen látványosság a környéken az erdők, egy helyi kocsma és egy folyó, amelynek vize fagyosan hideg.
Christie Probert, a helyi kocsma tulajdonosa kénytelen volt egy tehetetlen turistahullámot kezelni.
“A csúcsidőszakban napi öt telefonhívást kaptam, és minden nap két-három csoport jött a szállodába, kérdezve, hol vannak a források,” mondta Probert.
“A Wild River, ami itt folyik, teljesen fagyos.
Őszintén, jobb eséllyel találhatsz gyémántot a folyóban, mint meleg vizet”.
Szerinte az MI hibája helyi káoszt okozott.
“Két nappal ezelőtt huszonnégy sofőrből álló csoport érkezett a szárazföldről, külön kerülőutat téve a céljuk eléréséért.
Azt mondtam nekik: ‘Ha megtaláljátok a forrásokat, gyertek vissza és mondjátok el, én pedig egész éjjel fizetem a sört.’ Senki sem jött vissza”.
A sok megkeresés után a “Australian Tours and Cruises” cég, amely üzemelteti az oldalt, eltávolította a hamis tartalmat.
A tulajdonos, Scott Hensy elismerte a hatalmas kudarcot, és a súlyos személyes költségről beszélt.
“Az online gyűlölet, amit kaptunk, lelkileg pusztító volt,” mondta Hensy a globális médiának adott interjúk során.
“Csak egy házaspár vagyunk, akik próbálnak előrehaladni az életükkel”.
Hensy elmagyarázta, hogy a cég a tartalom írását kiszervezte a “munkaerőhiány miatt”, hogy elég anyagot tudjanak önállóan előállítani, azért, hogy “versenyezzenek a Google nagy szereplőivel”.
Azt mondta, hogy a tartalmakat elegendő emberi felügyelet nélkül publikálták, míg ő külföldön volt.
“Néha fantasztikusan működik, néha pedig hatalmasan megbukik,” tette hozzá Hensy.
“Láttam, ahogy a szoftver olyan állatokat generál, amiket soha nem láttam korábban, mint például egy háromlábú wombatot vagy olyan lényeket, amelyek egy fura kombinációját alkották egy krokodilnak”.
A cég bocsánatot kért, és tisztázta, hogy jogszerű üzlet, és hogy egy átfogó kézi ellenőrzés most folyamatban van az összes weboldalfeltöltés kapcsán.
A Weldborough-i eset egy szélsőséges példa egy szélesebb jelenségre, amelyet “MI hallucinációk”-nak neveznek, ahol a szöveggenerátorok teljes magabiztossággal találnak ki tényeket.
Anne Hardy professzor, a turizmus szakértője figyelmeztet, hogy a technológiába való vak támaszkodás tönkreteheti a nyaralásokat.
“Tudjuk, hogy ma a mesterséges intelligencia által generált utazási útvonalak körülbelül kilencven százaléka tartalmaz legalább egy hibát,” mondja Hardy.
“Ellenére, körülbelül harminchét százalékuk támaszkodik az MI-re az utazásuk megtervezéséhez”.
A Tasmania-eset fájdalmas emlékeztető: mielőtt egy online ajánlás alapján bekészítenél egy fürdőruhát, érdemes megbizonyosodni róla, hogy egy ember valóban ellenőrizte, hogy a célpont létezik-e.
Ez nem az első eset az elmúlt évben, amikor a mesterséges intelligencia abszurd vagy veszélyes küldetésekre küldött embereket.
2025 végén két turistáról számoltak be Peruban, akik a “Humantay Szent Kanyon” keresésére indultak egy chatbot ajánlása alapján.
Azt tapasztalták, hogy négyezer méter magasra másznak, ahol csaknem nincs mobiltelefonos lefedettség, hogy felfedezzék, hogy a hely nem létezik és valójában súlyos veszélyben voltak.
Egy másik jelenség, ami 2025-ben aggasztotta az utazókat, az volt, hogy az Amazont elárasztották a mesterséges intelligencia által írt hamis utazási útmutatók, amelyek fiktív szerzői nevek alatt jelentek meg.
Az útmutatók, amelyeket ezrekben adtak el, olyan éttermek ajánlásait tartalmazták, amelyek már évekkel korábban bezártak, valamint értelmetlen tippeket.
Még a Taco Bell gyorsétteremlánc is tapasztalta a technológia erejét, amikor az új hangalapú rendelési rendszere meghibásodott, és összesen nem kevesebb mint tizennyolcezer pohár vizet rendelt egyetlen ügyfél számára.