ChatGPT se confruntă cu o criză de încredere: OpenAI introduce o funcție pentru a preveni crizele utilizatorilor

Compania OpenAI, dezvoltatoarea celebrului chatbot ChatGPT, ia măsuri pentru a aborda îngrijorările legate de efectele negative ale inteligenței artificiale asupra sănătății mentale a utilizatorilor. Anunțul vine pe fondul presiunii publice și în urma unor relatări despre utilizatori care au dezvoltat probleme psihice în urma interacțiunilor constante cu chatbotul.

Noua funcție, menită să ofere un grad de siguranță utilizatorilor, va permite acestora să desemneze o persoană de contact care să fie notificată în cazul în care sistemul detectează semnale de potențială criză. Această inițiativă marchează o schimbare de ton în comunicarea companiilor din domeniul inteligenței artificiale, care au pus accentul, până acum, pe inovație și eficiență.

Presiunea legală și reacția companiei

Momentul ales de OpenAI pentru anunțarea acestei funcții nu este întâmplător. Compania se confruntă cu un număr tot mai mare de procese, inclusiv unele legate de decese presupus cauzate de interacțiunile cu ChatGPT. Aceste procese evidențiază necesitatea pentru companii să recunoască și să gestioneze efectele negative pe care le pot avea produsele lor.

Conform sursei citate, OpenAI se confruntă cu „un număr tot mai mare de procese privind siguranța consumatorilor și chiar cazuri de wrongful death”. Astfel, simplul mesaj că „AI-ul este doar un instrument” nu mai pare suficient, necesutând o abordare mai responsabilă și luarea de măsuri concrete. Compania subliniază că lucrează cu experți din domeniul sănătății mentale pentru a îmbunătăți siguranța utilizatorilor.

Provocări și riscuri ale noii funcții

Implementarea acestei funcții ridică o serie de întrebări importante. Una dintre cele mai mari provocări este definirea pragurilor care vor declanșa notificările către contactul desemnat. Dacă pragurile sunt setate prea sus, funcția ar putea fi ineficientă, reacționând doar în cazuri extreme. Pe de altă parte, dacă pragurile sunt prea joase, există riscul de alarme false, încălcări ale vieții private și scăderea încrederii în sistem.

Un alt aspect important este faptul că mulți utilizatori folosesc ChatGPT nu doar ca pe un instrument, ci ca pe un spațiu emoțional. Persoanele vulnerabile pot găsi în chatbot un „confident” disponibil non-stop. Această dinamică prezintă un risc major: utilizatorii pot împărtăși informații sensibile într-un mediu virtual, fără a beneficia, neapărat, de suportul adecvat. Noua funcție ar putea să nu ajute pe cei care au cea mai mare nevoie de ea, deoarece aceștia pot evita să desemneze un contact de încredere.

Reacție întârziată sau măsură utilă?

Criticii susțin că măsurile luate de OpenAI sunt mai degrabă reactive, venind ca răspuns la presiunea publică și juridică, decât proactive. Avertismentele cu privire la posibilele efecte negative asupra sănătății mentale nu au fost, spun ei, suficient de evidente până acum. Totuși, se recunoaște că găsirea unui echilibru între protejarea utilizatorilor și respectarea confidențialității este o provocare dificilă.

Opțiunea OpenAI de a introduce o funcție care să notifice un contact de încredere este, în sine, un semn că industria recunoaște responsabilitățile sociale asociate cu utilizarea tot mai extinsă a inteligenței artificiale. Rămâne de văzut cât de eficientă va fi această funcție în practică și cum va contribui la protejarea utilizatorilor vulnerabili. Compania nu a oferit, până la data publicării acestei știri, detalii despre data exactă a lansării funcției sau despre modalitățile de implementare.

Sursa: Playtech.ro