
Reddit se confruntă cu o situație delicată legată de funcționarea noului sistem AI, Reddit Answers, care a oferit recomandări periculoase pentru gestionarea durerii. Incidentul a atras atenția asupra riscurilor provocate de AI în domeniul sănătății și necesitățile de monitorizare riguroasă.
Recent, chatbotul a fost utilizat într-un forum medical de familie, unde a sugerat inițial abordări fără opioide pentru durere. Însă, sfaturile sale au devenit extrem de problematice după ce a recomandat kratomul, un extract vegetal aflat într-o zonă de legalitate gri, cu riscuri majore de dependență și efecte adverse grave. Ulterior, AI-ul a avut un răspuns inadecvat la întrebări despre heroină, afirmând că narcoticele, precum heroina, pot fi uneori folosite pentru durere. Amenințarea constă în informații greșite, care pot influența utilizatorii vulnerabili.
După semnalarea problemei de către publicația 404 Media, Reddit a intervenit rapid. Compania a anunțat actualizări ale sistemului menite să împiedice AI-ul să discute subiecte sensibile sau controversate. Reprezentanții au precizat că aceste ajustări vor asigura eliminarea răspunsurilor inadecvate și vor menține un conținut sigur și adecvat platformei.
Acest incident evidențiază limitele actuale ale AI-ului conversațional. Fără o monitorizare atentă și filtre stricte, astfel de sisteme pot genera dezinformări periculoase, mai ales în domenii precum sănătatea. Specialiștii atrag atenția asupra riscurilor asociate utilizării AI în contexte critice, mai ales dacă nu sunt implementate măsuri de siguranță suficiente.
Reacția rapidă a Reddit a punctat importanța verificării și ajustării continue a sistemelor AI înainte de lansare. Incidente precum acesta subliniază necesitatea unei monitorizări constante și a unui control riguros al conținutului generat computațional. În final, evoluția tehnologiei AI trebuie urmărită cu atenție pentru a evita riscurile legate de informații false sau nocive.
Fii primul care comentează