O instanță federală de apel din Washington D.C. a respins miercuri cererea companiei Anthropic de a bloca temporar decizia Departamentului de Apărare al SUA de a include firma de inteligență artificială pe o listă neagră. Decizia vine pe fondul unei dispute legale complexe, cu implicații semnificative pentru securitatea națională și industria tehnologică.

Contextul juridic și deciziile contradictorii

Curtea de apel a argumentat că suspendarea deciziei de includere pe lista neagră ar pune în pericol gestionarea tehnologiei cruciale de inteligență artificială într-un context de conflict militar activ. În același timp, o altă instanță, din San Francisco, a emis o ordonanță preliminară care interzice administrației Trump să aplice o interdicție a utilizării modelului Claude dezvoltat de Anthropic. Această situație creează o imagine confuză pentru companie, care nu poate încheia noi contracte cu Departamentul de Apărare, dar poate colabora cu alte agenții guvernamentale.

Departamentul de Apărare a declarat, la începutul lunii martie, că Anthropic prezintă un risc pentru lanțul de aprovizionare, ceea ce sugerează că utilizarea tehnologiei companiei ar putea amenința securitatea națională a SUA. Din această cauză, contractorii de apărare trebuie să certifice acum că nu folosesc modelele de inteligență artificială Claude în colaborarea cu armata. Anthropic a solicitat instanței de apel să revizuiască decizia Pentagonului, argumentând că aceasta reprezintă un act de răzbunare neconstituțional.

Interesele companii și securitatea națională

Instanța a recunoscut că Anthropic ar putea suferi pierderi financiare semnificative dacă nu este emisă o suspendare, dar a subliniat că interesele companiei par a fi în principal financiare. Anthropic a susținut de asemenea că dreptul său la libera exprimare este încălcat de decizia guvernului. Cu toate acestea, instanța a notat că compania „nu a demonstrat că exprimarea sa a fost afectată pe durata acestei litigii”.

Departamentul de Apărare a justificat decizia de includere a companiei pe listă în baza a două motive, decizii care trebuie contestate în instanțe separate. Avocatul general interimar al SUA, Todd Blanche, a descris decizia ca fiind o „victorie răsunătoare pentru capacitatea militară”. El a adăugat că „autoritatea militară și controlul operațional aparțin Comandantului-șef și Departamentului de Război, nu unei companii de tehnologie”.

Reacțiile și Urmările

Într-o declarație, un purtător de cuvânt al Anthropic a menționat că firma este recunoscătoare că instanța a înțeles necesitatea de a rezolva rapid aceste probleme și că este încrezătoare că instanțele vor decide în cele din urmă că deciziile privind lanțul de aprovizionare sunt nelegale. “În timp ce acest caz a fost necesar pentru a proteja Anthropic, clienții și partenerii noștri, ne concentrăm în continuare pe colaborarea productivă cu guvernul pentru a ne asigura că toți americanii beneficiază de o IA sigură și fiabilă”.

În februarie, secretarul Apărării Pete Hegseth a declarat că Anthropic reprezintă un risc pentru lanțul de aprovizionare, iar Departamentul de Apărare a notificat compania cu privire la această decizie oficială printr-o scrisoare. Anthropic este prima companie americană care primește această specificație, care a fost atribuită în trecut doar entităților străine. Anterior, fostul președinte Donald Trump a ordonat agențiilor federale să înceteze imediat utilizarea tehnologiei Anthropic.

Compania semnase un contract de 200 de milioane de dolari cu Pentagonul în iulie, dar discuțiile despre implementarea modelului Claude pe platforma de inteligență artificială GenAI.mil a Pentagonului au stagnat ulterior. Departamentul de Apărare dorea acces total la modelele Anthropic pentru toate scopurile legale, în timp ce compania dorea asigurări că tehnologia sa nu va fi utilizată pentru arme complet autonome sau supraveghere internă masivă.

În urma acestor evenimente, instanța de apel a precizat că ”expedierea substanțială este justificată”.