X lovește în buzunarele celor care răspândesc știri false despre războaie. Platforma de socializare, anterior cunoscută ca Twitter, va reduce monetizarea utilizatorilor care distribuie conținut video generat de inteligența artificială (AI) despre conflicte armate, dacă acesta nu este marcat corespunzător. Decizia vine în contextul în care platforma s-a confruntat în ultimele zile cu o explozie de clipuri false menite să dezinformeze, inclusiv imagini generate artificial care pretindeau că arată atacuri cu rachete.

Combinația dintre dezinformare și recompense financiare

Noua politică a platformei vizează direct stimulentele financiare, mai degrabă decât o interzicere totală a conținutului fals. Scopul este să descurajeze utilizatorii să transforme conflictele în surse de venit prin distribuirea de imagini false. Dacă o înregistrare video senzațională despre un bombardament inexistent adună milioane de vizualizări, există un stimul economic clar pentru a o publica. X încearcă, prin urmare, să reducă tentația de a exploata războiul pentru un câștig financiar ușor.

Această abordare recunoaște, implicit, limitele etichetării voluntare. Platforma a introdus recent eticheta „Made with AI”, prin care creatorii pot marca materialele generate sau modificate cu inteligență artificială. Cu toate acestea, cei motivați de profit nu au întotdeauna interesul să fie transparenți. De aceea, noua regulă leagă eticheta de bani: utilizatorii care nu etichetează conținutul fals despre război sau încearcă să profite de contextul conflictual pierd accesul la monetizare.

O altă motivație a acestei decizii este menținerea unei aparențe de libertate de exprimare. O interdicție totală a conținutului AI ar fi declanșat probabil acuzații de cenzură. Prin comparație, restricționarea monetizării este mai ușor de apărat public. Compania nu stabilește ce pot posta utilizatorii, dar le interzice plata pentru conținut falsificat despre război, dacă acesta nu este marcat corect.

Războiul, o zonă de risc maxim

Conținutul fals despre război este periculos deoarece exploatează vulnerabilitățile emoționale ale publicului. O explozie falsă, un aeroport distrus, sau soldați prezentați în panică pot influența percepția publică și pot distorsiona în timp real înțelegerea unui conflict. Instrumentele de generare video au devenit suficient de performante pentru a induce în eroare foarte ușor. Când asemenea materiale apar în valuri în contextul unei crize internaționale, ele concurează direct cu jurnalismul real și cu informația verificată.

Deși un pas important, măsura luată de X nu acoperă întreaga problemă a dezinformării. Se referă explicit la videoclipuri AI despre conflicte armate, în timp ce alte tipuri de conținut manipulator, generate tot cu AI, nu sunt neapărat afectate. Platforma a identificat războiul ca o zonă de risc, dar nu rezolvă problema mai amplă a dezinformării vizuale.

Un viitor cu semne de întrebare

Decizia este importantă, mai ales venind de la o platformă condusă de Elon Musk, care a vorbit despre un viitor dominat de conținut generat de AI. Compania încearcă să împace două obiective contradictorii: libertatea de creație și nevoia de a nu transforma platforma într-o fabrică de manipulare în timpul războiului.

În ultimele luni, platforma a fost criticată și pentru alte probleme legate de conținutul generat cu AI. Noua regulă poate fi interpretată și ca o încercare de a demonstra capacitatea de a impune restricții atunci când presiunea publică devine semnificativă. Platforma va folosi notele comunității, metadate și alte semnale pentru a detecta materialele generate cu AI, dar rămâne de văzut cât de eficientă va fi această abordare, mai ales pe fondul unei creșteri bruște a conținutului malițios.

Sursa: Playtech.ro