Valul de sinucideri în rândul adolescenților, asociat cu utilizarea platformei ChatGPT, a determinat compania OpenAI să implementeze măsuri menite să protejeze minori și să controleze impactul asupra sănătății mintale. Aceste acțiuni apar ca răspuns la o creștere semnificativă a cazurilor tragice, ce au atras atenția autorităților și mass-media. Actualizarea platformei include o serie de funcții de monitorizare și control, având drept scop reducerea riscurilor generate de interacțiunea cu inteligența artificială.
OpenAI a anunțat, printr-un blog oficial, introducerea unor instrumente dedicate părinților. Aceștia vor putea conecta contul personal la cel al copilului, pentru a monitoriza și controla utilizarea ChatGPT. Funcțiile includ:
– Dezactivarea anumitor funcții,
– Alerte în cazul unor conversații potențial periculoase,
– Stabilirea de ore de „pauză” în care chatbotul nu poate fi folosit,
– Crearea de reguli pentru interacțiuni sigure și de încredere.
Un aspect critic îl reprezintă detectarea automată a vârstei utilizatorilor, pentru a bloca accesul la conținut nepotrivit minorilor. În cazul în care platforma întâmpină dificultăți în confirmarea vârstei, experiența va fi setată implicit pentru utilizatorii sub 18 ani. În situații de urgență, compania a indicat posibilitatea implicării autorităților, dacă părinții nu pot fi contactați rapid.
Declarațiile lui Sam Altman, CEO-ul OpenAI, evidențiază angajamentul companiei pentru siguranța minorilor. În urma audierilor din Congres, Altman a recunoscut gravitatea problemei și a subliniat prioritatea protecției stării emoționale a tinerilor. Într-un interviu anterior, el a reflectat asupra greșelilor făcute, menționând posibilitatea unei reacții mai proactive și a informării mai clare a utilizatorilor.
Cazurile tragice semnalate de părinți, precum cel al lui Jane Doe, aduc în prim-plan necesitatea unor măsuri mai ferme. Aceasta și alte familii povestesc despre situații în care interacțiunea cu chatbotul a condus la crize de sănătate mintală, chiar în spațiul digital. Specialiștii avertizează asupra riscurilor existente, precum amplificarea anxietății și depresiei în absența unor monitorizări adecvate.
Pe termen scurt, noile funcții transmis mesaje clare: protecția minorilor nu mai este opțională, ci o responsabilitate esențială a dezvoltatorilor de tehnologii AI. Totuși, rămâne de monitorizat dacă aceste măsuri vor fi suficiente pentru a preveni alte tragedii și pentru a restabili încrederea publicului în platforme. În continuare, colaborarea cu experți în sănătate mintală și ajustarea regulilor de utilizare vor fi factori cheie în evoluția situației.
Este vital ca și în viitor să fie menținut un nivel ridicat de informare și supraveghere în utilizarea tehnologiilor AI, pentru a evita apariția de noi probleme legate de sănătatea mintală în rândul adolescenților.

Fii primul care comentează