Recent, corelalizarea dintre inteligența artificială și conținutul media a generat controverse în privința utilizării imaginilor și videoclipurilor reprezentând personalități istorice sau celebre. În special, compania OpenAI a recunoscut riscurile asociate cu generarea de videoclipuri deepfake, în contextul în care aceste tehnologii pot fi folosite pentru a răspândi informații false sau jignitoare.

Compania a luat măsuri pentru a limita utilizarea imaginilor cu personalități precum Martin Luther King Jr., suspendând temporar generarea de clipuri cu acesta. În același timp, a continuat să permită utilizatorilor să creeze conținut cu alte celebrități, ceea ce a stârnit controverse în opinia publică și a provocat reacții din partea familiei și a reprezentanților unor personalități decedate.

Pe rețelele sociale au circulat numeroase videoclipuri cu personaje istorice editate pentru a înfățișa scenarii greu de confirmat și, uneori, ofensatoare. Zelda Williams, fiica actorului Robin Williams, a făcut apel la utilizatori să nu mai distribuie video-uri generate de AI cu tatăl său, accentuând necesitatea responsabilității în consumul de conținut digital.

Este de menționat că, în cazul discursului „I Have a Dream” al lui Martin Luther King Jr., unele clipuri au fost manipulate pentru a include mesaje rasiste sau false. Astfel de situații evidențiază potențialul abuzurilor în utilizarea tehnologiilor de AI pentru a altera realitatea și pentru a răspândi dezinformare.

Specialiști în etica AI, precum Olivia Gambelin, consideră că măsura de a limite imaginea lui Martin Luther King Jr. reprezintă un pas înainte, dar critică lipsa unor reglementări de la început. AI generativă ridică, astfel, probleme de interpretare a drepturilor personale și a moștenirii culturale.

OpenAI a explicat că se află în proces de dezvoltare a unor niveluri de protecție, pentru a asigura controlul asupra utilizării conținutului cu personalități decedate. Aceasta include dialoguri cu reprezentanții și feedback-ul lor, pentru a crea reguli și controale mai eficiente.

În plus, expertul în AI Henry Ajder avertizează că lipsa unui cadru clar poate permite utilizarea abuzivă a tehnologiei, mai ales pentru persoane fără moștenitori cunoscuți sau resurse suficiente. Controlul asupra reînvierii sintetice trebuie să fie definit pentru a evita interpretări absurde sau manipulări periculoase.

Monitorizarea continuă și actualizarea politicilor de utilizare a AI sunt esențiale pentru a preveni abuzurile și pentru a proteja imaginea și drepturile persoanelor. În acest context, este crucial ca și utilizatorii să fie informați și responsabili în consumul de conținut generat artificial, pentru a evita răspândirea informațiilor false și dăunătoare.