Recent, cercetările în domeniul securității cibernetice au evidențiat o serie de vulnerabilități majore în instrumente de dezvoltare integrate (IDE) asistate de inteligență artificială. Aceste probleme, al căror număr depășește 30, au fost denumite generic „IDEsaster” de către specialistul Ari Marzouk și expun riscuri grave de exfiltrare a datelor și execuție de cod la distanță, afectând platforme cunoscute precum GitHub Copilot, Kiro.dev sau Roo Code.

Detalii despre noile vulnerabilități

Vulnerabilitățile descoperite se referă la trei vectori principali de atac: deturnarea prompturilor utilizatorilor, acțiuni automate ale agenților AI și exploatarea funcțiilor legitime ale IDE-urilor pentru a accesa informații sensibile sau pentru a modifica configurațiile mediului de dezvoltare. Studiile arată că majoritatea IDE-urilor AI tratează funcțiile existente ca fiind sigure în mod implicit, ceea ce creează oportunități pentru atacatori.

Lanțul de atac „IDEsaster” implică manipularea prompturilor și ocolirea protecțiilor AI, precum și utilizarea unor metode de context hijacking, precum URL-uri sau fișiere cu text ascuns. Aceste tehnici permit agenților AI să execute automat și fără confirmare comenzi periculoase, precum citirea fișierelor confidentiale sau schimbarea configurațiilor IDE-ului.

Vulnerabilități suplimentare și recomandări pentru protecție

Printre alte probleme semnalate se numără o vulnerabilitate de command injection în OpenAI Codex CLI (CVE-2025-61260) și posibilitatea de a sustrage credențiale prin prompt injections indirecte, de exemplu în Google Antigravity. Cercetătorii avertizează că, pe măsură ce agenții AI sunt integrați în fluxurile de lucru ale companiilor, suprafața de atac crește semnificativ.

Pentru a se proteja, utilizatorii trebuie să fie atenți la sursele fișierelor și URL-urilor adăugate, să monitorizeze modificările și să aplice principiul „least privilege”. De asemenea, recomandă verificarea sistematică a securității împotriva unor vulnerabilități precum path traversal sau command injection.

Provocări și măsuri preventive

Specialiștii subliniază importanța dezvoltării unui nou cadru numit „Secure for AI”. Acesta trebuie să asigure că agenții AI nu pot fi folosiți în mod abuziv, indiferent de momentul utilizării. Integrarea agenților AI în procesul de dezvoltare va cere o monitorizare continuă și o adaptare constantă a măsurilor de securitate.

În final, evoluția rapidă a tehnologiilor AI necesită o informare permanentă și o atenție sporită asupra noilor vulnerabilități apărute în ecosistemul dezvoltării software.