OpenAI jonglează cu interdicțiile privind AI-ul militar: principii sau doar PR?

Compania OpenAI a anunțat recent includerea unor interdicții în contractele sale, menite să limiteze utilizarea inteligenței artificiale (AI) în scopuri militare, cum ar fi supravegherea în masă și utilizarea sistemelor autonome de arme. Cu toate acestea, criticii susțin că aceste „principii” ar putea fi mai degrabă o strategie de relații publice decât o limitare reală. Argumentul principal se referă la formularea ambiguă a acordului, care permite „orice utilizare legală”.

„Legal” versus „acceptabil”: o distincție esențială

Problema centrală rezidă în faptul că, prin acceptarea cadru legislativ existent, OpenAI nu introduce de fapt interdicții noi, ci se adaptează unor reguli deja stabilite. În contextul SUA, supravegherea în masă a fost justificată de-a lungul timpului prin interpretări juridice favorabile, ceea ce ridică semne de întrebare cu privire la eficacitatea reală a noilor restricții.

AI-ul modern facilitează supravegherea în masă la costuri reduse. Date aparent banale pot fi combinate pentru a crea profiluri detaliate ale indivizilor. Acordarea unei atenții sporite asupra datelor înseamnă a înțelege cum pot fi ele utilizate, pentru că tehnologia evoluează rapid în timp. Sistemele gândite pentru o lume în care analiza era limitată uman pot deveni inadecvate acum.

Companiile pot afirma că nu „colectează în masă” date, dar le pot analiza pe cele deja existente sau pot achiziționa astfel de informații. De asemenea, pot susține că nu fac „monitorizare generalizată”, dar pot efectua interogări repetate pentru a obține rezultate similare. În acest context, AI-ul devine un instrument puternic, care amplifică capacitățile de supraveghere. Criticii consideră că o interdicție reală ar trebui să fie clară și explicită, nu ascunsă într-un limbaj dependent de interpretări.

Capcanele „gărzii” tehnice și a responsabilității umane

OpenAI a afirmat că va folosi mecanisme tehnice pentru a preveni încălcarea limitelor stabilite, cum ar fi clasificatoare pentru monitorizarea și blocarea anumitor acțiuni. Cu toate acestea, aceste sisteme au limite. Clasificatoarele pot interpreta un prompt sau o ieșire, dar nu pot detecta întotdeauna intenția din spatele lor. Mai mult, dacă acordul se bazează pe „orice utilizare legală”, mecanismele tehnice nu pot bloca ceea ce autoritatea contractuală consideră legal.

Responsabilitatea umană, de asemenea, poate fi dificil de garantat. Într-un lanț operațional complex, deciziile sunt distribuite între sisteme, echipe și proceduri. În astfel de situații, responsabilitatea poate deveni mai degrabă o etichetă formală decât o asigurare reală.

Pe partea de utilizare a forței, modul în care este definită interdicția este crucial. Dacă tehnologia nu va fi utilizată pentru a „direcționa independent” arme autonome „decât” în cazurile în care legea, reglementările sau politica departamentului cer control uman, atunci interdicția este condiționată. Adică, se respectă regulile existente, care pot fi reinterpretate în funcție de administrație și context geopolitic.

Compania OpenAI nu ar fi căutat să ascundă nimic în sens clasic. A ales cuvinte care permit două lecturi simultane: una pentru public și una pentru instituțiile care doresc o operabilitate maximă.

În prezent, nu este clar modul în care OpenAI va implementa aceste „principii” în practică, dar evoluțiile vor fi atent monitorizate, mai ales în contextul intensificării dezbaterilor privind etica și reglementarea AI-ului militar.

Sursa: Playtech.ro