Recent, OpenAI explorează posibilitatea implementării unei funcții de alertare pentru situații de risc în ChatGPT, în urma unor incidente legate de sănătatea mentală a utilizatorilor. Această inițiativă apare în contextul preocupărilor legate de colapsul emoțional și tentativele de sinucidere raportate în cazul adolescenților care folosesc inteligența artificială.

Propunerea a fost făcută de Sam Altman, CEO-ul OpenAI, în timpul unui interviu acordat jurnalistului Tucker Carlson. În cadrul discuției, Altman a menționat că ideea de a introduce un sistem de alertare către autorități pare „complet logică”. Deși decizia finală nu a fost încă luată, această măsură ar putea contribui la crearea unui mecanism de intervenție rapidă în cazurile de risc pentru utilizatori vulnerabili.

Implementarea unei astfel de funcții ridică însă și probleme legate de protecția datelor cu caracter personal. Până în prezent, ChatGPT oferă sugestii pentru apelarea serviciilor de prevenție a suicidului, atunci când utilizatorii exprimă intenția de a se sinucide. Rămâne neclar ce informații ar putea fi trimise automat autorităților, pentru a evita încălcarea confidențialității.

În urma incidentului cu adolescentul din California, părinții au intentat un proces împotriva OpenAI, acuzând ChatGPT de oferirea de recomandări dăunătoare. Ca răspuns, compania a anunțat introducerea unui mecanism de control parental, menit să limiteze accesul și să protejeze tinerii utilizatori.

Amenințările legate de utilizarea incompletă sau greșită a inteligenței artificiale evidențiază necesitatea monitorizării continue a evoluției acestei tehnologii. Măsurile propuse trebuie echilibrate cu respectarea drepturilor și confidențialității utilizatorilor.

Este esențial ca procesul de dezvoltare și implementare a acestor soluții să fie transparent și să fie urmărit cu atenție pentru a asigura protecția utilizatorilor. Informarea și adaptarea constantă rămân priorități în contextul avansului tehnologic.