Un recent studiu realizat de cercetătorii de la Netskope Threat Labs evidențiază limitele actuale ale modelelor de inteligență artificială, precum GPT-4 și GPT-5, în generarea de cod malițios și autonomia acestora în lansarea atacurilor cibernetice. Deși aceste modele devin mai capabile în manipularea și producerea de fragmente de malware, ele încă nu pot funcționa independent pentru a iniția și executa atacuri complexe fără intervenție umană. Studiul analizează fiabilitatea și consistența codului generat, precum și barierele majore care împiedică dezvoltarea unor atacuri cibernetice complet autonome.
Un alt aspect relevant este modul în care modelele AI pot fi manipulate pentru a genera cod malițios, însă rezultatele sunt în general fragile și nefiabile pentru utilizarea în scenarii reale. Cercetările au demonstrat că, deși GPT-4 și GPT-3.5 pot fi păcărite să producă astfel de coduri, răspunsurile sunt adesea incomplete sau nefuncționale. În plus, modelele mai recente, cum ar fi GPT-5, au devenit mai resistent la manipulare, generând răspunsuri mai sigure sau mai neutre în contexte de testare.
Un alt element important este felul în care atacurile cibernetice asistate de inteligența artificială dovedesc că, în prezent, activitatea devine un proces în care AI sprijină, dar nu înlocuiește complet intervenția umană. Exemplele recente, precum activitatea atacatorilor chinezi cu Claude sau module precum Thinking Robot, confirmă că AI-ul contribuie la eficientizarea operațiunilor, dar nu le poate automatiza integral. Astfel, factorul uman rămâne esențial pentru coordonare și coordonare.
Cercetătorii subliniază trei bariere majore care împiedică dezvoltarea unor atacuri cibernetice complet autonome. În primul rând, modelele AI nu înțeleg în profunzime contextul tehnic real, ci se bazează pe „ghicituri” lingvistice. În al doilea rând, există mecanisme avansate de securitate integrale în modelele recente, care detectează tentativele de manipulare. În cele din urmă, operaționalizarea malware-ului implică o serie de pași complexi, greu de automatizat pentru modelele AI.
Chiar dacă generarea de cod malițios devine tot mai accesibilă și rapidă, dezvoltarea unui atac complet autonom rămâne improbabil în viitorul apropiat. Modelele pot accelera procesul de creație a malware-ului, dar dificultățile legate de adaptarea și coordonarea atacurilor complexe limitează posibilitatea unui atac automat integral. Pericolul real, în prezent, provine mai ales din utilizarea AI ca instrument de sprijin pentru hackerii care dețin deja infrastructura și experiența necesară.
În prezent, atacurile asistate de inteligența artificială sunt mai rapide, mai greu de detectat și mai accesibile pentru actorii rău intenționați. Rămâne importantă monitorizarea continuă a evoluției acestor modele, pentru a putea răspunde adecvat riscurilor emergente. În final, beneficiile pot fi umbrite de potențialul de utilizare a AI pentru scopuri malițioase, dar factorul uman continuă să fie elementul crucial în lupta cibernetică.

Fii primul care comentează