Lansarea aplicației Sora, cea mai recentă creație a companiei OpenAI, a atras atenția atât prin inovație, cât și prin controverse. Platforma promitea să revoluționeze generarea de videoclipuri de scurtă durată folosind inteligența artificială, dar reacțiile publicului și autorităților au fost mai intense decât s-a anticipat. Astfel, Sora a devenit un punct de reflecție asupra eticii, drepturilor de autor și riscurilor dezinformării în era digitală.

Aplicația Sora, descrisă drept „TikTok pentru conținut AI”, permite utilizatorilor să creeze videoclipuri de 10 secunde, complete cu sunet, doar printr-o instrucțiune text. Aceasta oferă posibilitatea de a genera scene imaginative sau portrete digitale, inclusiv versiuni „cameo” ale utilizatorilor. De la început, platforma a fost utilizată pentru a produce clipuri controversate, precum imaginea unui SpongeBob nazist sau scenarii cu personaje fictive implicate în situații ofensatoare. Reacțiile critice din partea mass-media și a utilizatorilor au fost rapide și puternice.

Inițial, OpenAI a adoptat o politică de tip opt-out, prin care deținătorii drepturilor de autor trebuiau să solicite eliminarea anumitor personaje sau mărci. În urma scandalurilor, CEO-ul Sam Altman a anunțat schimbarea acestei reguli, permițând drepturilor de autor să decidă modul de utilizare a conținutului generat. A fost recunoscut faptul că echipa nu anticipase reacția emoțională, impactul puternic al imaginilor video și dificultățile în gestionarea riscurilor.

Reacțiile utilizatorilor au fost variate. Unii au exploit-at funcțiile noi pentru a manipula textul de comandă, creând videoclipuri cu personaje reale în contexte indecente sau politice. Pentru a limita aceste efecte, OpenAI a introdus restricții personalizate, permițând utilizatorilor să stabilească limite pentru genul de conținut. În paralel, compania lucrează la marcaje mai vizibile pentru conținutul generat de AI, pentru a combate manipularea și dezinformarea.

Între aceste măsuri, apare însă și problema generării de deepfake-uri și conținut ireverențios, în ciuda măsurilor de precauție. Cu planuri pentru versiunea Sora 2, integrată în API-ul OpenAI, riscurile și dilemele etice devin și mai evidente. Dezvoltarea unor tehnologii fără restricții totale ridică semne de întrebare despre controlul asupra realității digitale. Criticii avertizează asupra pericolului propagandei și a conținutului fals, mai ales în perioada electorală sau socială.

OpenAI continuă investițiile în infrastructură, precum proiectul Stargate, în colaborare cu SoftBank și Oracle, pentru construirea unor centre de date uriașe. Altman afirmă că aceste inițiative necesită și responsabilitate, chiar dacă unele aspecte ale tehnologiei pot genera erori sau abuzuri. În final, controversele asupra aplicației Sora reflectă dificultatea de a menține echilibrul între inovație tehnologică și protecția societății.

Monitorizarea evoluției și informarea continuă devin esențiale pentru a înțelege impactul tehnologiilor de generare a conținutului vizual AI. Într-o criză tot mai clară a dezinformării, responsabilitatea și reglementările vor avea un rol decisiv în modelarea viitorului digital.