Un nou val de tensiuni a zguduit industria globală a inteligenței artificiale, într-un peisaj deja tensionat de provocările legate de etică, securitate și competitivele cursa pentru dominioarea tehnologică. De data aceasta, suspiciunile se concentrează asupra practicilor ilicite de „distilare” a modelelor AI, după ce compania americană Anthropic a acuzat mai multe firme chineze de utilizarea neautorizată a modelului său avansat, Claude. În joc sunt nu doar rezultate financiare, ci și potențiale riscuri de securitate națională, având în vedere posibilitatea ca sisteme asemănătoare să fie adaptate pentru utilizări militare sau de supraveghere.
### Practica controversată a „distilării” AI: între eficiență și riscuri de securitate
Distilarea reprezintă o metodă acceptată în cercurile de specialitate, fiind folosită pentru a reduce dimensiunea și complexitatea unui model de inteligență artificială păstrând totodată o performanță aproape identică. Aceasta presupune antrenarea unui model mai mic pe baza rezultatelor generate de un model superior, tehnică deja utilizată pentru a crea versiuni mai rapide și mai accesibile ale sistemelor complexe. Însă, în cazul acuzațiilor aduse de Anthropic, această practică pare să fi fost exploatată în mod abuziv, la scară industrială, pentru a copia abilitățile avansate ale modelului Claude fără a-i avea în vedere procesul de dezvoltare și control al calității.
Compania americană susține că unele firme, printre care DeepSeek, MiniMax și Moonshot, au creat peste 24.000 de conturi false pentru a genera peste 16 milioane de interacțiuni cu Claude. Scopul principal ar fi fost extragerea mecanismelor de raționament ale modelului și transferul acestora către sisteme dezvoltate independent, reducând astfel costurile și timpul necesar pentru crearea unor sisteme similare. Concret, în cazul DeepSeek, acuzatorii spun că peste 150.000 de schimburi au vizat extragerea bazei de cunoștințe și algoritmilor esențiali pentru funcționarea avansată a modelului.
Nu în ultimul rând, există temeri și legate de modul în care aceste modele pot fi manipulate pentru a produce versiuni „sigur din punct de vedere al cenzurii” pentru întrebări sensibile politic, inclusiv în domenii precum disidența, liderii politici sau regimul autoritarist. „Modelul Claude ar fi fost folosit pentru a genera răspunsuri controlate, care evitau subiecte incomode,” explică sursele apropiate companiei Anthropic.
### Implicații geopolitice și apeluri la reglementare
Îngrijorările legate de această practică nu sunt doar de natură tehnologică. Acestea au un puternic impact geopolitic, având în vedere diferențele majore în ceea ce privește reglementările și standardele de securitate din China și Statele Unite. Anthropic avertizează că modelele obtinute în mod ilicit în China nu ar avea aceleași mecanisme de siguranță ca și versiunile originale și riscă să fie integrate în infrastructuri militare, de supraveghere sau operațiuni cibernetice, amplificând astfel vulnerabilitățile globale.
De asemenea, tema a fost intens discutată și în cercurile legislative americane, unde OpenAI a trimis recent o scrisoare în care acuză DeepSeek de încercări de a „beneficia gratuit” de cercetarea întreprinsă de laboratoarele din SUA. În acest context, compania Anthropic solicită o reacție coordonată din partea industriei, Guvernului și providerilor de cloud, propunând măsuri precum restricționarea accesului la cipuri avansate, esențiale pentru antrenarea modelelor uriașe, și crearea unor reglementări clare pentru utilizarea tehnologiilor AI.
În condițiile în care competiția pentru controlul suprem asupra tehnologiei AI devine tot mai acerbă, și riscul ca modele distilate ilegal să fie folosite pentru a pune în pericol securitatea națională crește, perspectiva unui cadru legislativ internațional și a unor măsuri stricte de control pare inevitabilă. Industria, autoritățile și cercetătorii trebuie să găsească un echilibru între inovație, securitate și etică, pentru a evita ca mirajul performanței să nu devină catalizatorul unor riscuri greu de gestionat.

Fii primul care comentează