Google pregătește o serie de transformări majore în modul în care utilizatorii interacționează cu webul, odată cu integrarea funcției de navigare agentică în browserul Chrome. Aceasta, susținută de sistemul de inteligență artificială Gemini, permite asistentului AI să execute acțiuni complexe online în mod autonom. Pe măsură ce tehnologia devine mai avansată, cu capacitatea de a naviga, citi pagini, da click sau completa formulare în locul utilizatorului, crește și necesitatea unor măsuri de protecție. În acest context, Google introduce sistemul User Alignment Critic pentru asigurarea siguranței în interacțiunea cu AI-ul.
Navigarea agentică reprezintă o nouă metodă de interacțiune online, în care AI primește sarcini complexe și le execută autonom. Aceasta permite gestionarea de site-uri, parcurgerea paginilor, extragerea informațiilor sau completarea formularelor, în mod automat și eficient. Totuși, utilizarea acestei tehnologii aduce riscuri majore de manipulare, precum atacurile de tip prompt injection, care pot duce la divulgarea de date personale, achiziții frauduloase sau deconspirarea informațiilor sensibile. Pentru prevenție, Google a creat o arhitectură de securitate în mai multe straturi, în care User Alignment Critic joacă rolul unui filtru distinct, care analizează și validează acțiunile înainte de execuție.
Cum funcționează sistemul de securitate al Google? User Alignment Critic este un model AI separat, complet izolat de agentul principal Gemini. Acesta evaluează fiecare acțiune propusă de AI, verificând siguranța și relevanța acesteia. Rolurile principale ale Criticului includ:
– Verificarea siguranței acțiunilor
– Analiza contextului și metadatelor
– Protecția împotriva manipulării și prompt injection
– Reacția de blocare sau solicitare de aprobare de la utilizator
Pe lângă Critic, Google implementează și alte trei componente pentru întărirea securității:
1. Origin Sets, care limitează agentul la site-urile relevante pentru task-ul curent, blocând reclamele și domeniile nelegate.
2. Sistemul de supraveghere în acțiuni sensibile, precum accesarea conturilor bancare sau parolele din Password Manager, solicitând confirmarea utilizatorului.
3. Detectarea prompt injection-ului, care analizează paginile pentru tentative de manipulare a AI-ului, integrată cu alte mecanisme de siguranță.
Pentru a testa această arhitectură, Google utilizează tehnici automatizate de red-teaming. AI-ul generate scenarii de atac și site-uri false pentru a identifica vulnerabilități. Rezultatele sunt apoi analizate pentru a ajusta și îmbunătăți sistemele de protecție. Compania oferă recompense de până la 20.000 de dolari pentru specialiștii care raportează vulnerabilități.
Prin aceste măsuri, Google încearcă să asigure un mediu sigur pentru integrarea AI în navigarea zilnică, diferențiindu-se de alte soluții care s-au dovedit vulnerabile la atacuri precum phishing sau promovare frauduloasă. Implementarea unui sistem în mai multe straturi arată preocuparea pentru echilibrul între inovație și protecție.
În contextul evoluției rapide a tehnologiilor AI, monitorizarea și informarea continuă rămân esențiale. Este important ca utilizatorii și dezvoltatorii să fie conștienți de riscurile și să urmărească actualizările în domeniu pentru a asigura o navigare sigură și responsabilă.

Fii primul care comentează