Conferința ICML a demascat folosirea ilegală a inteligenței artificiale în evaluarea lucrărilor științifice, respingând sute de articole

O controversă majoră zguduie lumea academică, după ce organizatorii conferinței ICML au descoperit și sancționat utilizarea neautorizată a inteligenței artificiale în procesul de evaluare a lucrărilor științifice. Un sistem ingenios de „watermarking”, implementat în documentele evaluate, a permis identificarea recenzorilor care au folosit modele lingvistice (LLM-uri) în mod ilegal. În urma acestei acțiuni, aproape 500 de articole au fost respinse.

Metoda inovatoare a implicat introducerea de instrucțiuni ascunse în formatul PDF al lucrărilor. Aceste instrucțiuni, imperceptibile pentru ochiul uman, puteau fi detectate de un model lingvistic. Astfel, dacă un recenzor utiliza un LLM pentru a genera o evaluare, modelul era „ghidat” să includă anumite expresii specifice. Prezența acestor expresii în evaluări constituia un indiciu clar că AI-ul a fost folosit în detrimentul regulilor stabilite.

Organizatorii au subliniat că sistemul nu este perfect și poate fi ocolit. Au recunoscut că au detectat doar forme mai evidente de utilizare necorespunzătoare a AI-ului. Cu toate acestea, mesajul conferinței este clar: încălcarea regulilor, indiferent de calitatea evaluării, va atrage sancțiuni.

Sistemul de detecție, testat în practica academică

Conferința ICML a demonstrat că evaluarea prin intermediul inteligenței artificiale a devenit o practică răspândită în mediul academic. Un sondaj din 2025 a relevat că mai mult de jumătate dintre cercetători apelează la aceste instrumente, chiar dacă regulile instituționale le interzic. Această discrepanță evidențiază tensiunea dintre utilitatea practică a AI și normele etice ale publicării științifice.

ICML a adoptat o abordare duală pentru a gestiona această situație. O politică strictă interzicea total utilizarea LLM-urilor în evaluare, în timp ce o altă opțiune permitea utilizarea limitată a acestora, de exemplu, pentru a facilita înțelegerea lucrărilor sau pentru a îmbunătăți claritatea feedback-ului. Autorii și recenzorii au avut posibilitatea de a alege politica preferată. Sancțiunile au fost aplicate exclusiv celor care au acceptat regimul strict și ulterior l-au încălcat.

Reacțiile din comunitate au fost împărțite. Unii cercetători au salutat fermitatea conferinței, în timp ce alții au criticat politica, argumentând că aceasta ar putea descuraja recenzorii și ar putea conduce la utilizarea mai subtilă a AI-ului.

Impactul asupra integrității academice

Această inițiativă are implicații majore pentru lumea științei. Nu este vorba doar despre cele aproape 500 de lucrări respinse, ci despre crearea unui precedent puternic. Organizatorii de conferințe și editorii de jurnale au acum un exemplu concret de aplicare a regulilor privind AI-ul. Într-un mediu academic în care presiunea de a publica este intensă, o astfel de schimbare poate redefini rapid limitele dintre asistența tehnologică legitimă și frauda academică.

După scandalul de la ICML, mai multe conferințe și publicații științifice au anunțat revizuirea politicilor privind utilizarea inteligenței artificiale în procesul de evaluare.