Conflictul exploziv dintre Washington și o companie de inteligență artificială
Washingtonul și compania de inteligență artificială Anthropic au intrat într-un conflict major, culminând cu ordinul fostului președinte Donald Trump de a interzice utilizarea tehnologiei acesteia de către agențiile federale. Măsura a fost luată pe fondul disputelor privind restricțiile de siguranță impuse de Anthropic, ceea ce a generat tensiuni cu Pentagonul. În ciuda interdicției, au existat informații despre utilizarea continuă a tehnologiei Anthropic, evidențiind o dependență profundă a statului față de aceasta.
Motivele din spatele interdicției
Ruptura dintre guvernul american și Anthropic a pornit de la refuzul companiei de a elimina anumite limite de siguranță din sistemele sale de inteligență artificială. Disputa s-a concentrat pe garanțiile care ar fi împiedicat folosirea modelului pentru țintire autonomă a armelor și pentru supraveghere internă în SUA. „Anthropic nu a spus că refuză complet colaborarea cu statul american, ci că nu vrea să renunțe la unele frâne contractuale și tehnice într-un domeniu unde consecințele pot fi letale”, arată surse apropiate situației. Administrația Trump a considerat aceste condiții drept o încercare a companiei de a dicta regulile operaționale ale armatei.
Ordinul de „încetare imediată” a utilizării tehnologiei nu a însemnat o deconectare instantanee. Au existat etape de tranziție de șase luni pentru instituțiile care aveau deja produse Anthropic integrate în fluxurile lor interne. Chiar Trump a menționat o perioadă de tranziție. Analiștii au subliniat că scoaterea unei tehnologii deja încorporate în rețele, procese și sisteme clasificate cere timp, testare și alternative funcționale.
Uz continuu în ciuda interdicției
Surse citate de publicații americane au arătat că instrumentele Anthropic au fost folosite de armata americană în contextul loviturilor asupra Iranului, la doar câteva ore după anunțul politic al lui Trump. Modelul Claude ar fi fost utilizat pentru sarcini precum analiză de informații, sprijin în selectarea țintelor și simulări de scenarii operaționale. Aceasta a demonstrat dependența aparatului de stat de instrumentele software considerate, simultan, problematice politic. Un alt detaliu esențial este că Anthropic era, până de curând, singurul furnizor de modele lingvistice mari prezent pe anumite rețele clasificate ale Pentagonului.
„Când astfel de sisteme ajung deja în infrastructură, retragerea lor nu mai este un simplu gest de PR, ci un proces tehnic și contractual complicat”, a menționat o sursă din cadrul armatei americane. Folosirea AI într-un conflict cu Iranul a ridicat și mai multe semne de întrebare. Între timp, conflictul s-a extins rapid, iar faptul că un model comercial de AI apare în lanțul operațional al unei campanii militare majore a ridicat semne de întrebare legate de legitimitate politică, răspundere și risc strategic.
Viitorul în contextul noilor parteneriate
Pentagonul nu renunță la inteligența artificială, ci își mută pariurile. Acesta a ajuns la un acord cu OpenAI pentru implementarea modelelor proprii pe rețele clasificate și a început discuții cu xAI. Strategia reală pare a fi una de redundanță și competiție, nu de dependență față de un singur furnizor. OpenAI a detaliat un set de „linii roșii” pentru contractul cu Pentagonul, inclusiv interdicții privind supravegherea internă în masă, țintirea autonomă a armelor și deciziile critice complet automatizate.
Pentru Anthropic, consecințele sunt mixte. Compania pierde teren într-o zonă strategică și extrem de profitabilă. În același timp, refuzul de a ceda complet în fața cererilor Pentagonului îi poate consolida imaginea de actor care încearcă să traseze limite într-un domeniu scăpat adesea de sub controlul public. Compania a anunțat că va contesta în instanță desemnarea sa drept risc pentru lanțul de aprovizionare.
Sursa: Playtech.ro

Fii primul care comentează