
Recent, problemele legate de siguranța copiilor pe platformele de social media, în special pe TikTok, au devenit tot mai vizibile, în contextul în care cercetări independente au evidențiat prezența conținutului inadecvat pentru vârsta lor. Chiar dacă platforma afirmă că depune eforturi pentru moderarea conținutului și protejarea tinerilor utilizatori, anumite deficiențe continuă să fie raportate de grupuri de monitorizare independente.
Cercetări recente realizate de grupul Global Witness au arătat că, în ciuda utilizării funcției „modul restricționat”, care ar trebui să limiteze expunerea la materiale mature, utilizatorii adolescenți sunt în continuare expuși recomandărilor conținutului sexual explicit. Aceștia au creat conturi false de copii de 13 ani pentru a testa algoritmii, însă au descoperit că sugestiile de căutare și videoclipurile recomandate conțineau conținut sexual explicit, inclusiv videoclipuri cu femei care simulau masturbarea sau se expuneau public. Mai mult, conținutul a fost adesea încorporat în videoclipuri aparent inofensive, pentru a ocoli moderarea automată a platformei.
La sfârșitul lunii iulie și începutul lunii august, cercetătorii au repetat testele și rezultatele au fost similare. TikTok și-a exprimat angajamentul pentru siguranța utilizatorilor, susținând că elimină peste 90% din videoclipurile care încalcă politicile înainte ca acestea să fie vizionate. Cu toate acestea, monitorizările indică faptul că recomandările conținutului sexual persistă, sugerând o problemă în sistemul de filtrare și moderare, iar autoritățile de reglementare din domeniul digital consideră că această situație necesită intervenție strictă.
Legislația recentă, în special Codurile pentru copii din Legea privind siguranța online, a intrat în vigoare la sfârșitul lui iulie, impunând platformelor obligativitatea de a implementa verificări de vârstă eficiente. Aceste măsuri vizează reducerea accesului copiilor la conținut neadecvat, precum materiale pornografice sau suggestive, și adaptarea algoritmilor pentru a preveni promovarea materialelor dăunătoare, cum ar fi cele legate de automutilare sau tulburări alimentare.
Datele obținute în urma acțiunilor de monitorizare indică faptul că măsurile de protecție există, dar nu sunt întotdeauna suficiente. Reacțiile utilizatorilor sugerează un nivel de confuzie față de recomandările algoritmului, evidențiind nevoia continuă de intervenție și reglementare suplimentară pentru siguranța online a copiilor.
Este clar că, în contextul evoluției rapide a tehnologiei, monitorizarea și adaptarea constantă a măsurilor de siguranță rămân priorități esențiale. O informare corectă și continuă asupra modului în care platformele gestionează conținutul sensibil este crucială pentru protejarea tinerilor utilizatori.
Fii primul care comentează