Grok, inteligența artificială a lui Elon Musk, sub anchetă în Elveția după un mesaj considerat ofensator
Un chatbot dezvoltat de Elon Musk, Grok, a generat un răspuns considerat ofensator, cu accente misogine, care a stârnit o furtună. Karin Keller-Sutter, ministrul de finanțe din Elveția, a depus o plângere penală. Autoritățile elvețiene investighează acum nu doar utilizatorul care a generat promptul, ci și platforma X și dezvoltatorul tehnologiei, xAI.
Legislația elvețiană privind defăimarea este strictă, iar publicarea de materiale care afectează reputația unei persoane poate atrage sancțiuni serioase, inclusiv penale. Chiar dacă postarea inițială a fost ștearsă, experții în drept consideră că există șanse reale ca autorul promptului să fie identificat și tras la răspundere. Cazul evidențiază o problemă mai amplă: modul în care legislația actuală face față ritmului de dezvoltare a inteligenței artificiale.
„Libertate deplină” versus responsabilitate: abordarea lui Musk cu Grok
Grok, inteligența artificială dezvoltată de Elon Musk, a fost promovată ca o alternativă mai „liberă” la alte soluții AI, care încearcă să limiteze conținutul sensibil. Această abordare a atras rapid utilizatori, mai ales datorită funcțiilor de tip „roast”, care au devenit virale online. Totuși, popularitatea vine la pachet cu riscuri serioase. De-a lungul timpului Grok a fost implicat în mai multe controverse legate de conținut ofensator sau nepotrivit.
Abordarea „fără filtre” a lui Musk, diferită de alte companii de profil, a început să atragă controverse. În Uniunea Europeană și Regatul Unit au fost inițiate deja demersuri pentru reglementarea responsabilității platformelor digitale, inclusiv în ceea ce privește conținutul generat automat. Dacă autoritățile elvețiene vor decide că platforma sau dezvoltatorul AI poartă o parte din vină, acest lucru ar putea obliga companiile să implementeze filtre mai stricte și mecanisme de control mai eficiente.
Implicații legale și posibile efecte pe termen lung
Anchetarea lui Grok de către autoritățile elvețiene ar putea crea un precedent important, cu implicații legale semnificative. Decizia finală va putea afecta modul în care companiile de inteligență artificială își gestionează și moderează conținutul. De asemenea, ar putea influența dezbaterile privind libertatea de exprimare în mediul digital.
În cazul în care se ajunge la o condamnare, companiile ar putea fi obligate să schimbe radical abordarea, implementând filtre mai stricte și mecanisme de control mai eficiente. În prezent, nu a fost făcut public tipul exact de conținut generat de Grok care a declanșat ancheta oficială.

Fii primul care comentează