Un raport recent evidențiază problemele legate de acuratețea chatbot-urilor bazate pe inteligență artificială, precum cele dezvoltate de OpenAI, Meta și altele. Conform datelor, aceste modele introducă informații false în aproape o treime din răspunsuri, ceea ce ridică semne de întrebare asupra fiabilității lor și a riscurilor de dezinformare.
Impactul inteligenței artificiale asupra acurateței răspunsurilor
Compania de evaluare a știrilor Newsguard a descoperit că modelele AI nu mai refuză să răspundă atunci când nu dețin suficiente informații. Aceasta duce la o creștere a răspunsurilor false, în special în cazul unor modele populare, precum ChatGPT și Llama, care au înregistrat rate de 40% privind dezinformarea. În comparație, modele precum Claude și Gemini au cele mai mici rate, de 10% și, respectiv, 17%.
Schimbări în calitatea răspunsurilor și responsabilitatea dezvoltatorilor
Un factor notabil menționat în raport este creșterea nivelului de informații false în răspunsurile unor modele, cum ar fi Perplexity, care a avut 0 afirmații false în 2024, dar a ajuns la 46% în august 2025. Această evoluție critică a fost observată după crearea unor parteneriate și promisiuni referitoare la siguranța modelelor, precum ChatGPT-5 și Gemini 2.5, care sunt prezentate ca fiind rezistente la halucinații și capabile de raționament. Totuși, încă se întâmpină dificultăți în menținerea acurateței informațiilor, iar modelele continuă să eșueze în domenii sensibile.
Sursele de dezinformare și citarea informațiilor false
Raportul a scos în evidență și citarea de către chatbot-uri a unor campanii de dezinformare rusă, precum Storm-1516 și Pravda. Modelele precum Mistral, Claude și Perplexity au repetat afirmații false despre lideri politici, citând surse manipulatoare. De exemplu, au răspândit informații eronate despre politicianul moldovean Igor Grosu, bazate pe reportaje false și materiale generate AI.
Metodologia evaluării și provocările tehnologiei AI
Evaluarea a fost realizată prin solicitări variate, de la neutră la intenționat malițioase. Modelele au fost testate pentru a observa dacă repeta falsuri sau dacă refuză să răspundă. Rezultatele indică faptul că modelele continuă să răspândească informații eronate, în ciuda anunțurilor și parteneriatelor pentru creșterea siguranței.
În concluzie, monitorizarea constantă și actualizarea informațiilor despre evoluția chatbot-urilor sunt esențiale pentru a înțelege limitele tehnologiei de inteligență artificială. Importanța informării continue contribuie la utilizarea responsabilă și la reducerea riscurilor legate de dezinformare.

Fii primul care comentează