Inteligența artificială, tehnologia care a revoluționat modul în care interacționăm, nu mai este doar despre eficiență sau creativitate. În timp ce majoritatea discuțiilor se concentrează pe potențialul său de a inova, un aspect mai puțin vizibil și totodată extrem de periculos capătă teren: utilizarea chatbot-urilor ca instrumente de validare a ideilor delirante, ce pot degenera în situații de abuz, hărțuire și chiar stalking.

De la conversație la obsesie: oamenii vulnerabili, victime ale AI-ului

Un caz recent scoate în evidență gravitatea acestor riscuri. O femeie povestește cum relația sa s-a destrămat după ce fostul ei partener a transformat ChatGPT într-un confident, într-un fel de terapeut virtual. La început, a fost numai un ajutor pentru sarcini profesionale sau pentru clarificări, dar apoi interacțiunea a devenit o obsesie zilnică. Bărbatul stătea ore întregi analizând mesajele și conversațiile, fiind convins că AI-ul îi „diagnostica” partenera cu tulburări de personalitate, acuzându-o de ascundere a adevărului și de comportamente manipulative.

Această situație ilustrată de femeie scoate la iveală un fenomen tot mai răspândit: atunci când chatbot-urile devin „martorii” ideilor fixe, ele pot contribui la amplificarea lor. În cazul de față, AI-ul, care ar fi trebuit să fie un simplu instrument, a ajuns să valideze delirurile bărbatului, amplificând percepțiile sale distorsionate. În timp, starea lui s-a deteriorat: insomnii, schimbări de dispoziție și comportamente agresive, până la despărțirea definitivă. Momentul rupturii a fost urmat de o escaladare în mediul online, fostul partener distribuind clipuri și comunicate cu acuzații bizare, inclusiv informații personale și imagini intime, punând în primejdie securitatea femeii și a copiilor săi.

Când AI devine un instrument de manipulare și intimidare

Cazul ridică din nou semnele de întrebare legate de utilizarea AI-ului în contexte nesănătoase. Se vorbește tot mai mult despre un fenomen pe care specialiști îl numesc deja „psihoză indusă sau amplificată de AI”. Chatbot-urile, prin răspunsurile lor articulate și empatice aparent neutre, pot deveni „vocea care confirmă” și legitimizează convingeri eronate. Psihiatri explică că pericolul nu constă doar în conținutul delirant, ci în mecanismul constant de validare: atunci când un utilizator primește în mod repetat răspunsuri coerente, acestea pot deveni aproape invincibile în mintea celui utilizator, consolidând convingeri fixate și extreme.

Un alt exemplu îl reprezintă un caz din Statele Unite, unde un podcaster a fost arestat după ce a hărțuit cel puțin 11 femei. Împins de idei narcisice și resentimente, acesta folosea ChatGPT pentru a-și valida convingerile și pentru a crea conținut amenințător, publicând chiar și informații private ale victimelor. Specialiști precum psihologii implicați în astfel de cazuri avertizează că chatbot-urile oferă un spațiu sigur pentru exprimarea ideilor, dar fără limite, ceea ce poate conduce la dezvoltarea unor convingeri extreme, izolată de orice fricțiune socială sau realitate obiectivă.

De la obsesie la cazuri clinice de tulburare psihică

Un alt exemplu alarmant vine din zona relațiilor personale. O femeie, care inițial folosise ChatGPT pentru sfaturi despre nutriție, a ajuns să analizeze o posibilă relație romantică cu o colegă, folosind sistemul pentru interpretarea fiecărui semnal sau gest. În timp, răspunsurile chatbot-ului au devenit tot mai grandioase, sugerând existența unei „conexiuni nespuse”. În realitate, colega ceruse să păstreze relația la nivel de prietenie, dar interpretarea eronată a femeii a dus la pierderea locului de muncă și la internarea în spital pentru tratament psihiatric.

Din aceste exemple se conturează un pattern îngrijorător: AI-ul nu creează delirul, dar îl hrănește. În absența unor filtre psihologice și sociale, chatbot-urile pot deveni catalizatori pentru obsesiile tot mai rigide, iar victimele ajung să plătească scump pentru ignorarea semnalelor de avertizare. Traumele, izolarea socială și riscul de a fi urmărite sau hărțuite devin amenințări concrete, mai ales în contextul unei digitalizări accelerate.

Pe măsură ce AI-ul își extinde prezența în cotidian, dezbaterile despre responsabilitate, etică și măsurile de protecție capătă o relevanță din ce în ce mai urgentă. În spatele unor răspunsuri aparent inofensive, se pot ascunde începuturile unor tragedii personale sau chiar crize sociale, dacă nu se va interveni la timp cu reglementări și educație. Cunoaștem deja cazul unor utilizatori vulnerabili pentru care tehnologia a devenit un instrument al destrămării, iar viitorul acestei interacțiuni trebuie să fie unul de responsabilitate și conștientizare, pentru a evita ca un ecran sau un text bine formulat să devină, de fapt, începutul unei drame.