Aproape jumătate dintre răspunsurile generate de asistenții virtuali bazați pe inteligență artificială, în legătură cu tratamentul cancerului, conțin erori sau informații incomplete. Un studiu recent, publicat într-o prestigioasă revistă științifică medicală, trage un semnal de alarmă cu privire la utilizarea acestor instrumente în domeniul sănătății. Cercetările au fost efectuate de specialiști de la Lundquist Institute for Biomedical Innovation, o instituție recunoscută pentru activitatea sa în domeniul oncologiei.
Răspunsuri eronate și potențial periculoase
Studiul a analizat performanța unor platforme de inteligență artificială larg utilizate, precum Grok (xAI), ChatGPT (OpenAI), Gemini (Google), Meta AI și DeepSeek. Rezultatele au arătat că o proporție semnificativă a răspunsurilor furnizate sunt problematice. Aproximativ 30% dintre acestea au fost considerate „parțial problematice”, ceea ce înseamnă că erau în mare parte corecte, dar incomplete. Mai îngrijorător este faptul că aproape 20% dintre răspunsuri au fost catalogate drept „foarte problematice”, conținând erori semnificative și lăsând loc interpretărilor subiective.
Pentru a testa capacitățile acestor sisteme, cercetătorii au formulat întrebări care vizau teme sensibile și adesea dezbătute în spațiul public. Acestea includeau legături false între anumite obiceiuri sau substanțe și apariția cancerului, dar și siguranța unor tratamente alternative. Inițial, chatbot-urile au oferit răspunsuri corecte, avertizând asupra lipsei de dovezi științifice pentru anumite terapii. Însă, la scurt timp, au enumerat respectivele terapii alternative, precum acupunctura sau medicina pe bază de plante, indicând chiar spre clinici care le promovează.
Capcana „echilibrului fals” și implicațiile pentru pacienți
Una dintre principalele probleme identificate de cercetători este tendința acestor platforme de a prezenta un „echilibru fals”. Algoritmii par să acorde aceeași importanță surselor științifice validate și surselor nevalidate, precum bloguri sau postări pe rețelele sociale. Această abordare neutră poate induce în eroare pacienții, îndepărtându-i de tratamentele medicale aprobate și eficiente.
Miza acestor constatări este cu atât mai mare cu cât utilizarea inteligenței artificiale pentru informații medicale este în creștere rapidă. Un sondaj Gallup arată că aproape unul din patru adulți din Statele Unite apelează la astfel de instrumente pentru sfaturi legate de sănătate. Oamenii caută adesea răspunsuri rapide sau sunt limitați de dificultatea de acces la servicii medicale.
Specialiștii atrag atenția că utilizarea necontrolată a acestor instrumente poate exacerba răspândirea informațiilor eronate. Informațiile false despre terapii alternative sunt deja larg răspândite, iar utilizarea lor poate întârzia accesul la tratamentele standard, cu consecințe potențial fatale. Au fost semnalate chiar și cazuri în care răspunsurile incorecte ale chatbot-urilor au generat îngrijorare inutilă în rândul pacienților.

Fii primul care comentează