Un studiu recent, semnat de cercetători de la OpenAI și Georgia Institute of Technology, aduce în discuție un aspect important despre halucinațiile modelelor de inteligență artificială (AI). Concluziile indică faptul că acestea nu apar din cauza datelor greșite, ci din modul în care aceste sisteme sunt antrenate să reacționeze în situații de necunoaștere. În contextul actual, când AI devine tot mai prezent și influent, înțelegerea modului în care aceste modele pot produce răspunsuri eronate sau „halucinații” este esențială pentru utilizatori și dezvoltatori.

Modelele de limbaj de mari dimensiuni (LLM), precum ChatGPT, sunt programate să ofere răspunsuri sigure și coerente, chiar și atunci când nu dețin informația corectă. Autorii studiului subliniază că aceste modele nu sunt instruite să recunoască necunoașterea, ci să ghicească răspunsuri, fiind evaluați după încredere și coerență. Astfel, în loc să admită limitele, modelele „blufează” pentru a menține senzația de certitudine.

Chiar și cu date de antrenament perfecte, cercetătorii arată că un model de limbaj nu poate răspunde corect la toate întrebările. Unele probleme nu au soluții generale, similare cu situația de a ghici data de naștere a unui elev anume. Într-un articol publicat în octombrie 2025, cercetătorii afirmă că rata totală de eroare a modelelor va fi întotdeauna cel puțin dublul ratei de răspunsuri corecte, făcând practic imposibilă atingerea unei precizii totale.

Adam Kalai, cercetător OpenAI și coautor al studiului, explică că modele trebuie să învețe să recunoască necunoașterea pentru a fi mai oneste. El propune modificarea sistemelor de evaluare pentru a recompensa autoevaluarea și onestitatea, nu doar răspunsurile „curajoase”.

De cealaltă parte, companiile de AI evită această abordare. Wei Xing de la Universitatea din Sheffield menționează că dacă un chatbot s-ar admite des că nu știe, utilizatorii ar căuta alte răspunsuri. În prezent, testele de performanță favorizează răspunsurile corecte și sancționează ezitarea sau non-reacția. Aceasta îi determină pe dezvoltatori să optimizeze modelele pentru rezultate sigure, chiar dacă nu sunt corecte.

Există și dificultăți legate de implementarea unor reforme. Pentru a modifica sistemele de evaluare, ar fi nevoie de abordări complexe, în contextul diversității subiectelor și a modului de apreciere a incertitudinii. Experți precum Hao Peng avertizează că modelele pot exploata sistemele de evaluare, reducând eficiența acestora.

Factorii economici influențează și ei deciziile companiilor de AI. Creșterea costurilor energetice și de calcul face dificilă adoptarea unor schimbări fundamentale. Statisticile arată că doar 5% dintre utilizatorii ChatGPT plătesc abonamentul lunar de 20 de dolari, iar reducerea interacțiunilor „atractive” ar putea avea un impact semnificativ asupra veniturilor.

Studiul subliniază un paradox important: pentru o mai mare acuratețe, modelele trebuie să fie învățate să accepte necunoașterea. Însă, răspunzând mereu, chiar dacă nu au informație certă, un chatbot poate fi perceput drept inutil, deși în realitate ar fi mai sigur și mai onest.

Menținerea unui echilibru între precizie și onestitate rămâne o provocare majoră. Într-un domeniu în continuă evoluție, monitorizarea și actualizarea tehnologiilor AI trebuie să fie constante pentru a asigura utilizarea responsabilă și sigură.