
OpenAI a recunoscut recent că modul de antrenare a modelelor de inteligență artificială contribuie semnificativ la fenomenul „halucinații” în sistemele AI. Aceasta înseamnă răspunsuri false, oferite cu încredere, fără acoperire factuală, o problemă majoră pentru industria de inteligență artificială. Compania încearcă acum să abordeze această dificultate, promovând o schimbare în metodele de evaluare și antrenament ale acestor modele.
De ce modelele AI „inventează” răspunsuri false
Deși dezvoltarea și operarea modelelor AI costă miliarde de dolari, acestea pot oferi afirmații greșite atunci când informațiile sunt incomplete sau ambigue. La baza acestei probleme stă modul în care sistemele sunt evaluate. În prezent, modelele sunt recompensate pentru răspunsurile considerate corecte, iar admiterea de neștiință este penalizată, ceea ce stimulează tendința de a „ghici”. Această strategie favorizează generarea de răspunsuri inventate, chiar și în lipsa datelor solide. Pe termen lung, aceasta poate accentua comportamentul în care modelele preferă explicațiile false peste recunoașterea limitărilor lor reale.
Reacția OpenAI și noile direcții de dezvoltare pentru AI
OpenAI a admis că această metodă de antrenament a fost una greșită și că afectează nu doar propriile modele, ci întreaga industrie. Într-un articol publicat și pe blogul oficial, compania a propus ajustarea criteriilor de evaluare. Așadar, modelele ar trebui penalizate mai sever pentru răspunsurile false, iar pentru cele care recunosc că nu dețin suficiente informații, să fie recompensate în mod selectiv. În acest fel, se dorește reducerea frecvenței halucinațiilor și crearea de modele mai „nuanțate”, capabile să indice gradul de încredere în răspunsuri. Deși noile modele, precum GPT-5, promit mai puține erori, reacțiile comunității științifice și ale utilizatorilor rămân rezervate, fiind nevoie de teste suplimentare pentru validarea efectelor acestor schimbări.
Provocările și perspectivele industriei AI
Industria AI trebuie să gestioneze o balanță între investiții mari și impactul ecologic, în timp ce luptă cu probleme fundamentale de fiabilitate. Ajustările propuse de OpenAI par a fi pași importanți, dar nu exhaustive, pentru reducerea halucinațiilor. Continui eforturi de susținere și dezvoltare în domeniu sunt esențiale pentru progresul sistemelor AI. Monitorizarea constantă a evoluției acestor tehnologii va fi crucială pentru asigurarea unui impact responsabil și sigur.
În final, progresul în domeniul inteligenței artificiale depinde de adaptarea continuă la noile descoperiri și de o informare riguroasă.
Fii primul care comentează