Compania de consultanță Deloitte Australia a fost recent implicată într-un scandal legat de utilizarea inteligenței artificiale (AI) în redactarea unui raport pentru guvernul australian. Incidentul a scos la iveală probleme legate de acuratețea informațiilor generate de modele AI și a ridicat semne de întrebare privind transparența în procesul de lucru al firmelor de consultanță care integrează tehnologia avansată în activități oficiale.

În luna octombrie 2025, Deloitte a recunoscut că a utilizat modelul GPT-4o, disponibil prin Azure OpenAI, în procesul de redactare a raportului “Targeted Compliance Framework Assurance Review” pentru Departamentul pentru Muncă și Relații de Muncă (DEWR). Raportul, finalizat în iulie 2025 și plătit cu circa 290.000 de dolari australieni, avea ca scop analiza infrastructurii tehnologice a guvernului pentru automatizarea penalizărilor sociale.

Problemele au apărut însă în momentul publicării, când mai mulți experți au constatat citări false, unele complet inventate. Chris Rudge, de la Universitatea din Sydney, a fost primul care a semnalat aceste nereguli, subliniind că raportul includea referințe inexistente, atribuind lucrări unor cercetători reali, dar fără existență factuală. În urma analizei, s-a stabilit că aproape 10% din cele 141 de surse citate au fost fabricate de AI, inclusiv decizii judecătorești inedite și nevăzute anterior.

Deloitte a acceptat în mod formal că a folosit GPT-4o, după scandal, și a publicat o versiune revizuită a raportului în care a admis utilizarea tehnologiei. În același timp, firma a afirmat că va returna ultima tranșă din suma plătită de guvern, fără a specifica suma exactă. Guvernul australian a decis să mențină raportul ca document de lucru, dar a eliminat citările false și a operat corecturi tehnice.

Problema ridicată de acest incident constă în lipsa de transparență și în riscul zeităților generate de modelele AI, precum halucinațiile tehnologiei, care pot duce la decizii eronate în contexte oficiale. În special în sectorul public, utilizarea AI trebuie însoțită de reguli stricte și de responsabilitate clară pentru evitarea unor greșeli grave.

Cazul Deloitte scoate în evidență importanța unui control riguros al rezultatelor generate de AI și necesitatea reglementărilor clare în domeniul utilizării acestor tehnologii în activități profesionale. În timp ce tehnologia evoluează rapid, responsabilitatea și verificarea umană rămân elemente fundamentale pentru credibilitate și încredere în procesele guvernamentale și de consultanță. Continuarea monitorizării și informării asupra utilizării AI devine esențială pentru a preveni situații similare în viitor.