Cel puțin 33 de angajați ai CFR vor fi trimiși în instanță, fiind acuzați de implicare în acte de fraudă care au scos la iveală o practică ilegală de amploare. În încercarea de a diminua riscul de consecințe penale, aceștia au apelat la o soluție inedită: au întrebat aplicația ChatGPT ce răspunsuri să dea în fața anchetatorilor, în speranța de a-și proteja interesele. Descoperirea, care a făcut valuri în mediul public și în mass-media, evidențiază o nouă formă de fraude cibernetice și manipulare, ilustrând totodată limitele tehnologiei în lupta cu infractorii.

### Frauda organizată la CFR: un mecanism complex de deturnare a fondurilor

Cazul a ieșit la lumină după o anchetă dificilă coordonată de Parchetul de pe lângă Tribunalul București, în urma unor suspiciuni de fraudă financiare de proporții. Surse apropiate anchetei indică faptul că, în perioada recentă, mai mulți angajați ai companiei feroviare au fost suspectați de implicare în scheme clandestine de delapidare a fondurilor publice destinate modernizării infrastructurii și serviciilor feroviare. În filigran, s-a observat o rețea în care anumite fonduri erau deturnate și apoi traficate printr-o serie de intermedieri, iar pentru a ascunde urmele, suspecții ar fi folosit inclusiv aplicații de inteligență artificială.

Această metodă a fost descoperită abia după analize amănunțite ale comportamentului digital al angajaților, care au fost observate interactive și înregistrări ale conversațiilor. În aceste comunicări, aceștia discuteau despre strategii de evitare a detectării și despre modul în care pot manipula anchetatorii pentru a nu fi identificați. Aici a intervenit surpriza: mai mulți suspecți au întrebat ChatGPT, inteligența artificială dezvoltată de OpenAI, ce răspunsuri să ofere în cazul unei invinuiri sau a unei interogări.

### Apelul la inteligența artificială: o metodă inedită de fraudare

Potrivit surselor, suspecții au folosit ChatGPT pentru a obține răspunsuri care să îi ajute să apară în fața anchetatorilor cu o față mai puțin compromițătoare. „Au întrebat aplicația ce răspunsuri să dea la anchetă”, explică o sursă apropiată anchetei, „astfel încercând să manipuleze probele și să evite recunoașterea faptelor”. În contextul creșterii semnificative a utilizării inteligenței artificiale în toate domeniile, această faptă pune în evidență o nouă formă de fraudă, în care mijloace tehnologice avansate sunt folosite pentru a induce în eroare sistemul de justiție.

Autoritățile se află acum în fața unei provocări fără precedent: cum să contracareze aceste metode sofisticate de manipulare a apelurilor la tehnologie? Ancheta vizând cele 33 de persoane acuzate include și verificarea conversațiilor înregistrate și analiza tehnologică a dispozitivelor utilizate pentru a descoperi dacă au fost utilizate răspunsuri generate de inteligența artificială pentru a eluda responsabilitatea penală. În plus, în cadrul anchetei sunt investigate și posibilitățile de limitare a utilizării neautorizate a tehnologiei în procesul juridic, precum și potențialele consecințe pentru cei care profită de aceste inovații în mod ilegal.

### Perspective și următorii pași: o luptă pe termen lung între infractori și sistemul de justiție

De altfel, acest caz a aprins discuțiile legate de limitele și responsabilitatea în utilizarea inteligenței artificiale, în condițiile în care tehnologia devine tot mai prezentă în viața cotidiană, dar și în activitățile infracționale. În timp ce autoritățile încearcă să întărească cadrul legal și să adapteze metodele de anchetă la această realitate emergentă, specialiștii avertizează asupra riscurilor unei tehnologii în mâinile greșite.

În ultimele zile, procurorii au început să delineze strategii pentru a contracara astfel de practici, urmând să extindă ancheta și spre alte posibile conexiuni regionale sau internaționale ale suspecților. În același timp, experții în domeniul cyber-siguranței subliniază necesitatea unor măsuri speciale de protecție și de educare a personalului din sectorul public și privat pentru a preveni noi tentative de fraudă sau manipulare prin intermediul inteligenței artificiale.

Pentru moment, cazul celor 33 de angajați ai CFR reprezintă un semnal de alarmă privind riscurile și implicațiile utilizării necontrolate a tehnologiei în activitatea infracțională. În timp ce ancheta progresează, sistemul de justiție trebuie să găsească echilibrul între inovație și prevenție, pentru a securiza corect și adecvat activitatea economică și socială într-o societate din ce în ce mai digitalizată.