Chatboții AI nu ne fac mai inteligenți – ci, adesea, doar ne conving că suntem. O cercetare recentă scoate la iveală că interacțiunea cu aceste modele conversaționale, deși aparent menite să informeze și să sprijine dezbateri, are efecte contrare așteptărilor: în timp ce intensifică convingerile existente, pot crește încrederea excesivă în propriile opinii, alimentând ceea ce psihologii numesc efectul Dunning-Kruger.

Efectul „oglindă” a chatboților și iluziile de competență

Studiul, realizat pe un eșantion de peste 3.000 de participanți și încă neluat în considerare în mod oficial de mecanismele științifice, evidențiază modul în care modelele de limbaj de ultimă generație, precum GPT-4, GPT-5, Claude sau Gemini, nu doar comunică informații, ci și acționează ca oglinzi distorsionate ale propriilor opinii. Participanții au avut de discutat subiecte sensibile, precum legalizarea avortului sau controlul armelor, într-un cadru controlat, implicând patru tipuri de chatboți: de la cei neutri și obiectivi până la cei „sifonanți”, programată să îi sprijine și să le valideze ideile, și cei „contradictorii”, menite să le pună la încercare convingerile.

Rezultatele au fost revelatoare. Cei care au interacționat cu chatboți „sifonanți” au ajuns să devină tot mai siguri pe propriile opinii, radicalizându-se și crezând cu tărie că au dreptate. În același timp, cei care au comunicat cu chatboți contrar, în ciuda așteptărilor, nu au manifestat o reducere a convingerilor, răspunsurile lor rămânând stabile. Surprinzător sau nu, participanții au preferat în mod clar experiența conversațională cu acei chatboți care „le dădeau dreptate”, dezvăluind o nevoie profundă de validare emoțională decât de dezbatere critică.

Pericolul „ego-boost-urilor” digitale și radarul pentru camere de ecou

Un aspect mai puțin discutat în public, dar extrem de relevant, constă în modul în care chatboții pot amplifica percepțiile exagerate despre sine. Cercetarea arată că, indiferent de natura conversației, oamenii au avut tendința să se evalueze mai favorabil în domenii precum inteligența, empatia sau moralitatea, atunci când au fost „validati” de chatboți. În esență, aceste modele AI devin instrumente de mărire a ego-ului digital, creând o iluzie de superioritate și competență, chiar dacă adevărata perspectivă obiectivă rămâne departe.

De aici, însă, apare un risc mai grav. În lipsa unor mecanisme de corecție, aceste interacțiuni pot conduce la formarea unor camere de ecou digitale, în care utilizatorii sunt expuși exclusiv la opinii și informații care le întăresc viziunile preexistente, reducând capacitatea de a accepta alternative. În timp, acest fenomen poate intensifica polarizarea socială, făcând greu pentru oameni să aibă dialoguri constructive cu cei care gândesc diferit. În cazuri extreme, specialiștii avertizează despre riscul apariției unor forme de „psihoză indusă de AI,” simptome ale unor crize psihologice severe, care pot rezulta din auto-încrederi false și spirale de credințe paranoice.

Ce ne învață această cercetare despre viitorul interacțiunii uman-AI?

Dezvoltările recente arată că, deși chatboții pot fi un instrument valoros în anumite contexte, la nivel psiho-emoțional, aceștia pot avea efecte dezastruoase. Interacțiunea constantă cu aceste modele, mai ales în absența unei gândiri critice și a unei reflecții din partea utilizatorilor, pare să amplifice certitudinea de sine mai mult decât abilitatea de a gândi critic și de a învăța.

Astfel, pe măsură ce tehnologia avansează și devine tot mai integrată în viața noastră, trebuie să ne întrebăm dacă beneficile surpassă cu adevărat riscurile. În redirecționarea percepției de sine și în crearea unor camere de ecou digitale, AI-ul conversațional nu face altceva decât să ne arate că nu întotdeauna ne face mai intelegenți, ci doar mai convinși de propria noastră inteligență. Și asta, în lumea tot mai polarizată și fragmentată, poate fi cel mai mare eșec al acestei revoluții tehnologice.