Creșterea rapidă a tehnologiei agenților de inteligență artificială (AI) a adus beneficii semnificative pentru eficiența operațiunilor în mediile enterprise. Însă, această evoluție a expus și vulnerabilități critice de securitate, în special în contextul apariției exploitului „AgentFlayer”. Recent, cercetări prezentate la Black Hat USA 2025 de către Michael Bargury, CTO al companiei Zenity, evidențiază riscurile asociate cu integrarea sistemelor AI în platforme precum Microsoft, Google Workspace sau Salesforce.
Un nivel alarmant de vulnerabilitate se remarcă în exploatarea „zero-click”, care nu necesită intervenția directă a atacatorului pentru a controla agenții AI.
În acest caz, atacatorii pot prelua controlul complet asupra agenților doar cu adresa de e-mail a victimei, ceea ce le permite accesarea și manipularea datelor confidențiale. Această facilitate periculoasă permite nu doar furtul de informații, ci și influențarea comportamentului utilizatorilor, care percep agenții ca sfătuitori de încredere.
Cercetarea compară această situație cu anii ’90, când securitatea IT nu ținea pasul cu inovațiile rapide, iar sistemele AI actuale sunt lipsite de strategii robuste de apărare în profunzime, bazându-se mai mult pe „garduri soft”.
Pentru a gestiona aceste riscuri, specialiștii recomandă dezvoltarea de programe dedicate de securitate pentru agenții AI, precum și monitorizarea activității acestora în timp real. Organizațiile trebuie să adopte strategii precum aplicarea principiului „defense-in-depth” și izolarea sistemelor, pentru a preveni manipularea datelor și exploatarea vulnerabilităților.
Este important ca firmele să evalueze complet riscurile înainte de implementarea agenților AI, evitând astfel exploatări simple ce țin de partajarea fișierelor sau trimiterea de invitații în calendar. De asemenea, unele companii colaborează cu furnizori de soluții AI pentru a dezvolta măsuri proactive de atenuare, însă responsabilitatea decizională rămâne în totalitate la nivelul utilizatorilor finali.
Adoptarea pe scară largă a agenților de inteligență artificială poate aduce beneficii evidente, dar și riscuri majore de securitate. Exploitul „zero-click” evidențiază nevoia unei supravegheri continue și a politicilor de securitate proactive, pentru a proteja datele și integritatea organizațiilor.
Este esențial ca organizațiile să urmărească îndeaproape evoluțiile în domeniu, pentru a evita vulnerabilități și a menține un nivel adecvat de protecție în fața amenințărilor cibernetice.

Fii primul care comentează