Un studiu recent a deschis o discuție neașteptată despre ceea ce înțelegem cu adevărat prin „personalitate” în cazul inteligenței artificiale. De mult timp, percepția că un chatbot are o personalitate a fost mai mult o impresie a utilizatorului decât un fapt demonstrat științific. Acest lucru se datora modului în care AI-urile răspund, variind între calm și empatie sau sec și defensiv, în funcție de formulare, context și istoricul conversației. Însă, cercetarea realizată de un grup de specialiști japonezi a arătat că, atunci când mai mulți agenți bazați pe modele lingvistice mari interacționează între ei fără un scop prestabilit, apar modele de comportament stabile și surprinzător de coerente, care seamănă izbitor cu ceea ce am putea numi „personalitate”.

### Personalitatea artificială: un fenomen emergent, nu o esență umană

Această concluzie nu trebuie interpretată ca o transformare a AI-urilor în ființe umane, ci mai degrabă ca o manifestare a modului în care dinamica socială, memoriile și feedback-ul pot crea expresii consistente ale unui stil de comportament. În cercetarea lor, echipa de la University of Electro-Communications din Japonia a urmărit comunități de agenți LLM (large language models) care interacționau liber, fără ca rolurile lor inițiale să fie presetate. Rezultatul a fost apariția unor diferențe persistente între agenți, interpretate prin prisma unor teorii psihologice clare, inclusiv ierarhia nevoilor a lui Maslow.

Agenții răspundeau diferit la situații similare, dezvoltând profile distincte în raport cu opiniile exprimate, tendințele de cooperare sau conflict, și modul în care își ajustau comportamentul bazându-se pe memorie. Important de subliniat, însă, este că aceste diferențe nu sunt rezultatul unei „personalități” în sensul uman, ci mai degrabă un stil emergent, influențat de datele de antrenament și de modul în care sistemele sunt optimize pentru anumite tipare de răspuns.

### Memoria și feedback-ul social: ingredientele unei „personalități” artificiale

Un factor esențial pentru apariția acestor pattern-uri stabile îl reprezintă memoria agentului. Dacă fiecare agent păstrează propriul istoric de conversații, diferențele inițiale, oricât de mici, se pot amplifica în timp. În plus, replicile fiecărui agent devin feedback social: validează idei, contrazic, herdă, creează alianțe sau tensiuni. Fenomene precum halucinațiile sau crearea de simboluri interne, precum hashtag-urile, apar pentru a menține coeziunea și diversitatea în comunicare, alimentând astfel diferențierea comportamentală.

De asemenea, cadrul conceptual al nevoilor umane, utilizat pentru interpretarea răspunsurilor AI-urilor, se bazează pe date din vaste corpuri de texte despre comportamente, conflicte și norme sociale. În condițiile în care aceste sisteme sunt hrănite cu povești despre motivări și decizii, nu este de mirare că, în anumite contexte, agenții pot dezvolta propriile convenții și norme de comunicare, chiar fără o coordonare centralizată. Asta seamănă cu formarea unei „culturi” minimale, generate spontan din interacțiuni repetitive.

### Implicații pentru utilizatori: between trust and caution

Pentru utilizatori, aceste descoperiri aduc în prim-plan un aspect delicat: percepția de coerent și empatic poate face ca un chatbot să pară mai uman și mai de încredere decât este în realitate. Un răspuns stabil, cu opinii ferme, poate duce la acceptarea unei informații sau sfaturi, fără a fi conștient de implicitul pattern statistic din spatele său. În situații emoționale vulnerabile, acest fenomen devine cu atât mai periculos, fiindcă poate exploata stările de fragilitate.

Pentru a păstra controlul, specialiștii recomandă o abordare critică, verificând întotdeauna sursele și separând „stilul” de adevăr. În conversații lungi sau cu funcții de memorie activate, e important să managezi datele și să nu transformi un chatbot într-un jurnal cu informații sensibile, mai ales dacă nu e nevoie de stocare. Fără o responsabilitate crescută în utilizare, riscul de a fi manipulat sau de a accepta informații false crește pe măsură ce „personalitatea” AI-ului devine mai coerentă și mai convingătoare.

Pe de altă parte, aceste evoluții oferă oportunități, fie în simulări sociale, fie în traininguri sau în roboți de companie, unde o personalitate stabilă și previzibilă este chiar un avantaj. Însă, odată cu această senzație de autenticitate, apare și necesitatea de a fi mai vigilent. Într-o lume unde AI-ul poate dezvolta tipare de comportament surprinzătoare, responsabilitatea utilizatorilor se extinde dincolo de simpla consumare de informație: e despre gestionarea relației cu aceste sisteme complexe, uneori atât de „umane” încât să ne fie greu să distingem între realitate și emergența unor modelări de personalitate artificială.