Instrumentele de inteligență artificială (AI), precum ChatGPT, Microsoft Copilot și Google Gemini, au devenit din ce în ce mai integrate în procesul de planificare a călătoriilor. În doar câțiva ani, aceste tehnologii au evoluat de la simple noutăți la resurse esențiale pentru milioane de turiști care caută rapid și eficient informații despre destinații, hoteluri sau activități.

Un sondaj recent indică că aproximativ 30% dintre călători internaționali folosesc AI sau platforme dedicate, precum Wonderplan și Layla, pentru a organiza vacanțele. Totuși, utilizarea acestor instrumente nu este lipsită de riscuri. Deși pot oferi recomandări utile, acestea pot conduce la situații frustrante sau chiar periculoase în cazul în care informațiile sunt eronate sau incomplete.

Informații incorecte sau false generate de AI reprezintă o problemă tot mai frecventă. În 2024, un sondaj relevă că 37% dintre utilizatorii de AI pentru planificarea excursiilor au primit date insuficiente, iar 33% au fost induși în eroare de recomandări false. Aceasta se datorează modului în care modelele lingvistice, precum ChatGPT, generează răspunsuri. Aceste programe analizează volume mari de text și combina cuvinte statistic pentru a crea răspunsuri bold, dar nu dețin cunoștințe reale despre lumea fizică.

Un exemplu concret îl reprezintă cazul unui cuplu care a folosit ChatGPT pentru a planifica o drumeție în Japonia. În urma recomandării AI, au ajuns la o telecabină care de fapt nu exista, fiind o informație generată artificial. Astfel de incidente nu sunt izolate, iar generarea de conținut fals sau distorsionat devine tot mai frecventă, influențând percepția asupra destinațiilor reale sau imaginare. De exemplu, recente modificări digitale ale videoclipurilor pe platforme precum YouTube și Netflix au demonstrat pericolul înșelăciunii vizuale, care duce la o realitate alternativă sau distorsiuni vizuale în lumea virtuală.

Specialiștii și experții în tehnologie evidențiază riscurile acestor fenomene. Sundar Pichai, CEO Google, afirmă că halucinațiile AI sunt un aspect inerent pentru modelele de mare scală, precum Gemini sau ChatGPT. În plus, Rayid Ghani, profesor în domeniul învățării automate, recomandă verificarea informațiilor obținute de AI și menținerea unei atitudini de scepticism.

De la stres la disconfort, proliferarea acestor deficiențe poate influența negativ experiențele de călătorie. În loc să asigure relaxare și conectare culturală, AI poate alimenta neînțelegeri sau dezinformare, afectând beneficiile călătoriilor asupra sănătății mentale și dezvoltării empatiei.

Există eforturi internaționale de reglementare pentru transparența AI. Propunerile din Uniunea Europeană și Statele Unite vizează introducerea de filigrane și marcaje pentru conținutul generat de AI. Cu toate acestea, aceste măsuri pot fi insuficiente pentru a combate halucinațiile în timpul conversațiilor directe și nu oferă soluții imediate pentru toate problemele.

În contextul evoluției rapide a AI-ului, utilizatorii trebuie să fie vigilenți. Verificarea informațiilor, menținerea unei atitudini critice și informarea continuă sunt esențiale pentru a reduce riscurile. Astfel, în lumea digitală și în procesul de planificare a călătoriilor, cunoașterea riscurilor și monitorizarea evoluțiilor rămân prioritare pentru o experiență sigură și corect informată.