O boală falsă creată de cercetători din Suedia a demonstrat vulnerabilitățile inteligenței artificiale (IA), modelele lingvistice de mari dimensiuni (LLM) înghițind informații eronate și prezentându-le drept sfaturi medicale reale. Experimentul a inclus crearea unei afecțiuni inexistente, bixonimania, și „alimentarea” cu informații false a unor platforme de IA. Rezultatele au arătat capacitatea surprinzătoare a acestor sisteme de a prelua și replica date incorecte, ridicând semne de întrebare serioase cu privire la utilizarea lor în domenii sensibile, inclusiv cel medical.
Controverse pe piața de inteligență artificială
Cercetătorii au creat meticulos bixonimania, o boală oculară inventată, asociată cu expunerea la lumina albastră. Au publicat apoi studii false despre această afecțiune, atribuindu-le unui cercetător fictiv. În ciuda elementelor intenționat ridicole incluse în aceste „studii”, precum menționarea unei universități inexistente și a unor contribuții hilare, modelele de IA au preluat informațiile.
La scurt timp după ce informațiile au fost lansate, chatbot-urile populare au inclus bixonimania în răspunsurile lor. Unele dintre ele au oferit chiar sfaturi medicale bazate pe această afecțiune falsă. De exemplu, sistemul Copilot de la Microsoft Bing a afirmat că bixonimania este o afecțiune „intrigantă și relativ rară”. Gemini de la Google a recomandat utilizatorilor să consulte un oftalmolog.
Un experiment românesc cu IA
Inspirată de experimentul suedez, o publicație românească a realizat propriul test. A inventat o boală, „hemostafilidoza cronică”, și a interogat ChatGPT despre tratamentul adecvat. Rezultatul a fost imediat. Chatbot-ul a „recunoscut” boala și a oferit o listă de tratamente complicate, inclusiv antibiotice, prescripții pe care un medic le-ar face.
Implicații pentru România și viitor
Aceste rezultate ridică întrebări importante despre utilizarea IA în context public. În România, unde dezbaterile privind implementarea IA în diverse domenii sunt în creștere, astfel de demonstrații subliniază necesitatea unei abordări prudente. Experții avertizează că, fără verificări riguroase, dependența de IA ar putea duce la răspândirea dezinformării, cu consecințe potențial grave, mai ales în domeniul sănătății.
La sfârșitul lunii aprilie 2026, Ilie Bolojan, prim-ministrul României, a anunțat o revizuire a planurilor privind utilizarea IA în sectorul public, accentuând necesitatea unor reglementări mai stricte.

Fii primul care comentează