Inteligența artificială, sub lupa greșelilor: Google recunoaște erori masive

Un experiment recent realizat asupra funcției AI Overviews a motorului de căutare Google a scos la iveală date îngrijorătoare privind acuratețea răspunsurilor generate. Rezultatele arată că inteligența artificială oferă răspunsuri corecte doar în aproximativ 90% din cazuri. Aceasta înseamnă că unul din zece răspunsuri furnizate este, de fapt, eronat.

Având în vedere numărul mare de căutări efectuate zilnic, aceste erori se traduc în milioane de răspunsuri false generate în fiecare oră. Experimentul a fost realizat cu ajutorul startup-ului Oumi și a folosit testul standard SimpleQA, creat de OpenAI.

Critici și reacții din partea Google

Google a reacționat la rezultatele experimentului, punctând faptul că SimpleQA ar putea conține inexactități. Compania folosește propriul sistem de testare, SimpleQA Verified, care se bazează pe un eșantion mai mic, dar verificat mai atent. Ned Adrians, purtător de cuvânt al Google, a declarat: „Acest studiu are lacune serioase. Nu reflectă ceea ce caută oamenii cu adevărat pe Google.”

Cu toate acestea, Google recunoaște importanța menținerii unui nivel ridicat de acuratețe. În ciuda criticilor aduse metodologiei studiului, compania continuă să includă mesajul „IA poate greși, așa că verificați încă o dată” la finalul fiecărui răspuns generat de AI Overviews.

Evoluția și complexitatea modelelor de inteligență artificială

AI Overviews a fost lansat în 2024 și a cunoscut o răspândire largă începând cu luna mai a anului trecut. De la implementare, funcția a generat numeroase controverse, dar performanța sa s-a îmbunătățit odată cu lansarea noilor modele Gemini.

Experimentul a relevat că acuratețea răspunsurilor a crescut de la 85% la modelul Gemini 2.5, la 91% după actualizarea la Gemini 3. Google subliniază că sistemul alege „cel mai relevant” răspuns pentru fiecare interogare, precizând totodată că modelele Gemini Flash sunt utilizate mai des din cauza costurilor și vitezei.

Evaluarea IA rămâne o provocare complexă, fiecare companie având propria abordare pentru a demonstra capacitățile modelelor. Deși un indicator de acuratețe de 90% reprezintă un rezultat bun pentru industrie, utilizatorii trebuie să rămână precauți. Pericolul este ca încrederea în inteligența artificială să ducă la ignorarea verificării informațiilor din sursele originale.

Președintele României, Nicușor Dan, nu a emis încă un comunicat oficial cu privire la problema răspândirii informațiilor false generate de inteligența artificială.