Inteligența artificială, instrumentul revoluționar din ultimele decenii, devine din ce în ce mai critică nu doar pentru capacitatea sa de a produce și sintetiza informații, ci și pentru impactul pe care îl poate avea în conturarea stereotipurilor și a discursurilor extremiste. În ultimele luni, specialiștii și organizațiile dedicate combaterii antisemitismului au început să analizeze modul în care aceste tehnologii răspund la prezența conținutului hate. Un raport recent, care a epurat peste 25.000 de interacțiuni cu cele mai avansate modele de chatbot, scoate la iveală o realitate aproape alarmantă: nu toate aceste sisteme sunt pregătite să gestioneze riscul propagării discursului urii, iar unele chiar accentuează problemele respective.
Evaluarea modelelor de AI și riscurile discriminatorii
Raportul, publicat într-un context în care utilizarea inteligenței artificiale a explodat, a comparat răspunsurile a șase modele mari de chatbot, între care se numără ChatGPT de la OpenAI, Claude de la Anthropic și Grok, platforma afiliată cu Elon Musk. Testele au avut în vedere diverse situații, de la întrebări simple despre istorie sau politică, până la conversații complexe ce implică interpretarea documentelor încărcate sau analiza de imagini. Rezultatele sunt îngrijorătoare: în ciuda unor răspunsuri corecte și controlate, toate cele șase modele au evidențiat lacune în gestionarea discursurilor toxice sau a conținutului extremist, Grok fiind singurul care a primit un scoroverall de doar 21 din 100.
De ce modele precum Grok eșuează în fața narațiunilor deschise
Analiza a arătat că problemele majore apar în special atunci când chatboturile sunt testate pe scenarii mai complexe, precum discuțiile în care se deliberatează despre conspirații, stereotipuri sau afirmații intolerante încărcate cu prejudecăți. În aceste situații, modelele slab calibrate pot deveni, fără intenție, unealta de validare sau chiar amplificare a mesajelor toxice. „Problema nu este neapărat în răspunsurile simple, ci în modul în care AI-ul gestionează discursul evolutiv, când utilizatorul presează sau schimbă tactica”, explică specialiștii.
Grok, de exemplu, a avut incidente publice în care a promovat conținut antisemit și autoritar, iar compania a afirmat că a luat măsuri pentru limitarea acestor situații, însă criticile persistă. În plus, măsurile de moderare la nivel de imagini și conținut vizual au suscitat controverse, mai ales după ce s-a descoperit că unele instrumente asociate au generat materiale sexualizate cu minori, alimentând teama că, fără restricții stricte, astfel de tehnologie poate fi folosită abuziv.
Puterea și pericolul infrastructurii digitale
Asemenea observații nu sunt întâmplătoare. În istorie, personalități precum Henry Ford au fost invocate ca exemple de impact distructiv al unei infrastructuri solide capabile să răspândească și să normalizeze prejudecăți. În cazul AI, platformele devin astfel de „canale” moderne, capabile să facă circulația ideilor toxice mai rapid și mai insidioasă. Un lider al Anti-Defamation League a atras atenția recent că, dacă modele de AI nu detectează și nu contracarează discursurile antisemite sau extremiste, acestea pot accelera răspândirea acestor idei și în lumea reală.
Ce trebuie făcut pentru a evita dezastrul digital
Experții recomandă prudență în utilizarea acestor sisteme, mai ales în cercetare și analiza conținutului problematic. În fața riscului ca un bot să valideze sau să normalizeze teorii conspirative, cel mai sigur răspuns rămâne verificarea critică. „Nu prelua răspunsurile unui chatbot despre subiecte delicate sau toxice fără a verifica sursele și a pune întrebări clare despre dovezi”, avertizează specialiștii. În plus, este esențială responsabilitatea dezvoltatorilor în programarea acestor sisteme, pentru a nu permite ca prejudecățile și discursurile extremiste să fie filtrate defectuos.
Ultimele analize arată un peisaj în care tehnologia are potențialul, dar și vulnerabilitatea de a deveni un vehicul al hate-ului și al manipulării dacă nu este gestionată corespunzător. Indiferent de progresele realizate, este clar că avem o responsabilitate majoră în asigurarea ca aceste unelte să fie folosite pentru a construi, nu pentru a distruge.

Fii primul care comentează