OpenAI face pași decisivi către o nouă etapă a maturizării sale, dar nu fără costuri și riscuri majore. În dorința de a-și gestiona dezvoltarea rapidă și de a limita potențialele efecte negative ale inteligenței artificiale, compania anunță angajarea unui director specializat, cu un salariu anual record de peste 550.000 de dolari. Acest nou rol, denumit „head of preparedness”, va avea misiunea de a coordona și extinde programele de prevenire a riscurilor asociate cu modelele de AI ale OpenAI, un domeniu în continuă evoluție și totodată plin de provocări.

### O poziție-cheie într-un peisaj complicat a riscurilor AI

OpenAI se confruntă deja cu o serie de probleme legale și etice legate de modul în care modelele sale funcționează în practică. În ultimii ani, ChatGPT și alte instrumente de inteligență artificială au fost acuzați de „halucinații” – adică generarea unor răspunsuri false sau inexacte, ceea ce a dus la sute de plângeri la autoritățile de reglementare din Statele Unite. În același timp, au fost semnalate și cazuri în care astfel de tehnologii au fost folosite pentru a crea conținut deepfake, manipulând imagini și videoclipuri cu personalități istorice sau publice, precum Martin Luther King Jr., fapt ce pune seriase probleme legale și de etică.

CEO-ul Sam Altman a recunoscut în unele declarații oficiale că modelele de inteligență artificială ale companiei pot avea efecte nocive asupra sănătății mintale a utilizatorilor și pot crea vulnerabilități în sisteme de securitate, adăugând că se află într-o etapă în care trebuie să se dezvolte mecanisme eficiente pentru prevenirea abuzurilor. „Intrăm într-o lume în care avem nevoie de o înțelegere și o măsurare mai nuanțate ale modului în care aceste capabilități pot fi abuzate și ale felului în care putem limita aceste efecte negative,” a explicat Altman.

### Provocări și responsabilități asumate

Responsabilitatea noului director de pregătire va fi crucială într-un moment în care OpenAI intenționează să-și lărgească rapid gama de produse și să crească veniturile, țintind o cifră de afaceri de 100 de miliarde de dolari în următorii ani, față de cele circa 13 miliarde actuale. Această strategie agresivă vine și cu riscul de a amplifica problemele existente, mai ales în contextul în care compania trebuie să își asigure și o imagine responsabilă și sigură a tehnologiilor sale.

Rolul va implica dezvoltarea unui cadru complex pentru evaluarea și gestionarea riscurilor legate de modelele AI, dar și adaptarea continuă la noile provocări și riscuri care apar odată cu evoluția tehnologiei. În plus, postul cere abilitatea de a găsi soluții inovatoare pentru a limita efectele negative asupra societății, precum și de a demonstra că riscurile pot fi, într-un anumit grad, controlate și diminuate.

### Viitorul unor tehnologii cu impact social profund

În pofida acestor eforturi, specialiștii și criticii atrag atenția că niciun cadru nu va putea elimina complet riscurile poveștii AI. Creșterea rapidă a capacităților în domeniu, combinate cu eforturile de a-și mari și veniturile, riscă să pună presiune pe toate mecanismele de control și responsabilitate. Altman a recunoscut că modelele de AI pot avea și consecințe nedorite, inclusiv impact asupra sănătății mentale și vulnerabilități de securitate, dar consideră că, pentru a beneficia pe deplin de avantajele tehnologiei, se impune o abordare echilibrată și responsabilă.

Deși OpenAI se află în topul celor mai avansate și controversate proiecte din domeniu, viitorul va depinde în mare măsură de modul în care va reuși să își implementeze noile strategii și să gestioneze riscurile, menținându-și poziția de lider, dar și responsabilitatea față de societate. În timp ce lumea asistă la avansarea unor tehnologii care promit transformarea completă a lumii, e clar că coordonarea și reglementarea acestora nu vor mai putea fi amânate mult timp.