Inteligența artificială (AI) nu mai este doar un instrument de creștere a productivității și inovare. A intrat pe toate palierele infrastructurii digitale globale, iar impactul său, din ce în ce mai diviziv, se manifestă atât în beneficiu, cât și în riscuri majore. Recent, un raport de specialitate a evidențiat modul în care modelele AI, precum Gemini, sunt deja exploatate de actori statali, grupări crimina­le și hackeri pentru a desfășura întregul „lanț” al unui atac cibernetic. Pe lângă tehnici deja cunoscute, AI accelerează și amplifică amenințările, transmițând un semnal clar: războiul digital devine tot mai sofisticat și mai periculos.

De la recunoaștere la operațiuni complexe: AI ca partener al atacatorilor

Cercetările arată că AI nu a inventat o nouă categorie de amenințări, ci a crescut viteza, scalabilitatea și accesibilitatea celor deja existente. Dacă anterior, un hacker necesita echipe mari, timp îndelungat și cunoștințe avansate pentru a compromite o țintă, acum poate obține, instantaneu, suport pentru cercetare, redactare de mesaje frauduloase, testare de cod și chiar dezvoltare de noi funcții pentru instrumente de atac. Aceasta înseamnă că, în loc să elimine pericolul, AI îl face mai dificil de urmărit și mai eficient. În acest context, actorii rău intenționați pot folosi modele precum Gemini pentru întregul ciclu operativ, de la identificarea vulnerabilităților, la crearea de conținut înșelător și post-infiltrare.

Un exemplu concret al acestor practici ilustrează modul în care AI devine un „copilot” în sabotajele cibernetice: de la elaborarea scenariilor fictive pentru obținerea de recomandări privind exploatarea vulnerabilităților, până la generarea de mesaje persuasive în social engineering. Grupuri aparținând unor state precum China, Iran, Coreea de Nord și Rusia s-au folosit deja de Gemini pentru a testa și rafina aceste tehnici în operațiuni reale. În cazulIranianului APT42, focusul a fost pus pe social engineering și crearea de unelte personalizate mai rapide și mai convingătoare, adaptate fiecărei victime, ceea ce face campaniile de phishing tot mai greu de detectat.

Malware „augmentat”: AI ca motor al dezvoltării ofensive

Pe lângă atacurile de tip phishing, raportul relevă și o tendință emergentă în zona dezvoltării malware-ului: integrarea AI în procesele de creație și evoluție a codului malițios. Exemple precum HonestCue și CoinBait ilustrează această nouă etapă a infrastructurii infracționale. HonestCue, de exemplu, reprezintă un framework care, prin API-uri, generează și compilează automat cod C# pentru componente de malware, reducând considerabil timpul necesar pentru transformarea unei idei în weaponizare operatională. De asemenea, kitul CoinBait, sub acoperișul unei aplicații web ce imită o platformă cripto, duce procesul de creare a fraudelor la un nivel superior, accelerând producția de mesaje și tehnici de fraudare.

Aceste exemple nu sunt doar exerciții de laborator, ci prime semnale pentru o evoluție rapidă a ecosistemului infracțional. Expertiza tehnică și viteza cu care aceste prototipuri devin parte din arsenalul hackerilor indică faptul că, în curând, asemenea inovații pot trece de la faza de experiment la practică standard.

Ingineria socială și înșelătoria evoluează odată cu AI

Utilizarea inteligenței artificiale în campanii de tip ClickFix și în scenarii de distribuție a malware-ului pentru MacOS face ca linia dintre tehnicile de social engineering și evoluția tehnologică să se estompeze. Anunțurile și rezultatele de căutare, mult mai credibile și adaptate limbii și contextului victimei, cresc riscul ca utilizatorul obișnuit să cadă în capcana atacatorilor. Într-un astfel de mediu, mesajele imită foarte bine discursul natural, eliminând unele dintre cele mai evidente semne de alarmă ale scams-urilor clasice.

Pentru companie, asta înseamnă că măsurile tradiționale de securitate trebuie consolidat, iar utilizatorii trebuie educați să devină mai sceptici față de soluțiile sau comenzile primite de la surse necunoscute. Evitarea riscurilor devine o chestiune de disciplină digitală și de politică internă, mai ales că, odată cu progresul AI, atacurile devin tot mai subtil prezentate, mai convingătoare și mai greu de detectat.

Risc strategic: distilarea cunoașterii și furtul de proprietate intelectuală

Un alt aspect alarmant semnalat de specialiști se referă la încercările de a „extrage” comportamentul unui model AI, pentru a-l replica sau distila într-un alt sistem, mai ieftin și mai puțin sigur. Așa-numitele ataque de tip „model extraction” permit infractorilor să interogheze în mod sistematic API-urile AI, apoi să folosească datele colectate pentru a construi un model propriu, capabil să îndeplinească aceleași funcții. Această practică reduce avantajul competitiv al companiilor, furând proprietatea intelectuală și creând riscuri economice majore.

Exemplul dat, cu zeci de mii de prompturi, îți arată că această problemă nu mai e doar teoretică. În viitorul apropiat, companiile de tehnologie vor trebui să investească mai mult în protecția infrastructurilor și să dezvolte măsuri de detectare a interogărilor suspecte, pentru a păstra avantajul strategic.

Viitorul războiului cibernetic și responsabilitatea utilizatorilor

Pe măsură ce AI devine o componentă tot mai esențială în lupta digitală, scenariile evoluează rapid. Atacatorii vor continua să integreze aceste tehnologii pentru automatizare, variație de conținut și »reducerea erorilor umane, în timp ce providerii de modele vor ascuți controalele, filtrele și monitorizarea. În acest context, organizațiile trebuie să-și maturizeze protocoalele de securitate, să realizeze audituri regulate și să adapteze strategiile pentru un mediu digital tot mai dinamic.

Pentru utilizatori, răspunsul inițial trebuie să fie simplu și familiar: verificați sursele, evitați să rulați comenzi sau programe nesigure și păstrați-vă scepticismul în fața ofertelor tehnice prea bune ca să fie adevărate. În final, AI rămâne un instrument cu potențial imens, dar și cu riscuri pe măsură, iar modul în care alegem să îl gestionăm va decide dacă va deveni un aliat sau un inamic în lumea digitală.