Anthropic, o companie americană de tehnologie, a decis să nu lanseze public noul său model de inteligență artificială, Mythos Preview. Motivul principal: sistemul se dovedește a fi prea eficient în identificarea vulnerabilităților informatice. Experții se tem că această capacitate ar putea fi exploatată de hackeri sau de spioni, generând riscuri semnificative.

Un sistem capabil să descopere breșe de securitate

Modelul Mythos Preview, dezvoltat de Anthropic, a fost prezentat inițial ca un instrument avansat. Compania a subliniat capacitatea acestuia de a detecta puncte slabe în sistemele de operare și browsere. Testele au demonstrat că sistemul poate să depășească restricțiile de securitate, cum ar fi cele din mediile virtuale, și să dezvăluie detalii despre vulnerabilități.

Într-un experiment, modelul a reușit să identifice o eroare gravă în nucleul Linux, utilizat pe majoritatea serverelor la nivel global. Mai mult, a fost capabil să combine multiple vulnerabilități pentru a simula preluarea controlului asupra unui sistem. Într-un alt caz, Mythos a descoperit o vulnerabilitate veche de 27 de ani în sistemul de operare OpenBSD. „Creșterea semnificativă a capabilităților ne-a determinat să nu îl punem la dispoziția tuturor utilizatorilor”, a transmis compania într-un document tehnic.

Colaborare restrânsă pentru securitate cibernetică

În loc să fie lansat public, modelul va fi utilizat într-un program restrâns de securitate cibernetică numit „Project Glasswing”. Acesta va implica companii importante din industria tehnologică, printre care Amazon Web Services, Apple, Google, Microsoft, Nvidia și Cisco. Scopul este de a identifica vulnerabilități și de a îmbunătăți securitatea sistemelor informatice.

Anthropic a confirmat că poartă discuții cu oficiali guvernamentali americani despre implicațiile modelului. Compania consideră că dezvoltarea unor astfel de tehnologii are un impact asupra securității naționale, justificând colaborarea cu autoritățile. Directorul general al Anthropic, Dario Amodei, a avertizat că și alte companii ar putea dezvolta sisteme similare.

Viitorul inteligenței artificiale și amenințările

Experții estimează că modele de inteligență artificială cu capacități similare ar putea apărea pe piață în următoarele șase până la 18 luni. Specialiștii în securitate cibernetică subliniază că industria trebuie să se pregătească pentru apariția unor instrumente AI capabile să identifice și să exploateze vulnerabilități informatice la scară largă. Anthropic intenționează să publice ulterior concluziile programului „Project Glasswing”, detalii care vor aduce mai multe informații despre impactul acestui tip de tehnologie.