
Un nou raport de securitate evidențiază riscurile generate de exploatarea inteligenței artificiale de către gruparea Kimsuky, implicată în operațiuni de spionaj cibernetic pentru acțiuni de falsificare și manipulare vizuală. Studiul publicat de Genians Security Center (GSC) dezvăluie modul în care hackeri susținuți de statul nord-coreean au utilizat modele AI pentru a crea documente false, precum legitimații militare contrafăcute, într-un context de intensificare a atacurilor de tip spear-phishing.
Utilizarea instrumentelor AI în campaniile de spionaj reprezintă un fenomen tot mai comun, iar în cazul Kimsuky, s-a remarcat o metodă inovatoare de a evita filtrele de securitate. Specialiștii GSC au descoperit că gruparea a folosit ChatGPT pentru a genera imaginea unei legitimații militare, pornind de la fotografii publice și formulări speciale care sugerează crearea unui „mock-up” sau „design de probă”. Astfel, atacatorii au reușit să obțină imagini convingătoare, suficiente pentru a fi folosite în campanii de inginerie socială.
Această abordare a marcat o tranziție de la phising-ul clasic la falsurile deepfake vizuale, mai greu de detectat, utilizate în e-mailurile de atac. Victima principală a fost o instituție de apărare sud-coreeană, însă identitatea și numărul victimelor nu au fost dezvăluite. Gruparea Kimsuky, cunoscută pentru atacuri asupra unor instituții militare și guvernamentale din Coreea de Sud, pare să-și diversifice metodele, incluzând acum și falsuri vizuale generate cu inteligență artificială.
Raportul GSC atrage atenția asupra vulnerabilităților generatoare de probleme de securitate. Realizarea acestor documente false cu ajutorul AI este relativ simplă tehnic, iar utilizarea prompt engineering intensifică riscurile. În plus, salarierea acestor tehnologii de către actori statali pentru operațiuni de spionaj și falsificare demonstrează o problemă tot mai complicată pentru instituțiile de securitate.
Pe lângă metodele tradiționale, grupări precum Kimsuky adoptă acum tehnici avansate bazate pe AI pentru a crea identități false, pentru manipulări vizuale și pentru a livra materiale în context de război informațional. Se observă o evoluție în tactici, care implică tehnologii sofisticate de deepfake și falsificare vizuală.
Având în vedere aceste tendințe, este crucial ca organele de securitate și instituțiile relevante să își adapteze măsurile de protecție, monitorizând continuu noile riscuri generate de utilizarea AI în operațiuni de dezinformare și spionaj. Menținerea vigilenței și informarea permanentă sunt esențiale pentru a răspunde evoluției rapide a metodelor de atac digital.
Fii primul care comentează