Un expert Uber avertizează: sistemul de conducere autonomă Tesla creează o iluzie periculoasă
Un fost șef al programelor de autonomie de la Uber, Raffi Krikorian, atrage atenția asupra unei probleme cruciale a sistemului de conducere autonomă „Full Self-Driving” (FSD) de la Tesla. Potrivit acestuia, pericolul nu constă doar în defecțiunile tehnice ale sistemului, ci în modul în care Tesla cere șoferilor să supravegheze un sistem conceput pentru a face această sarcină tot mai dificilă. Analiza lui Krikorian nu este doar un simplu avertisment, ci o critică profundă a modului în care tehnologia este implementată și a riscurilor psihologice pe care le implică.
Capcana încrederii partiale
Krikorian subliniază că sistemul FSD funcționează suficient de bine pentru a induce încredere, dar nu suficient de bine pentru a elimina complet nevoia de intervenție umană. Acest lucru creează o „zonă gri” periculoasă. Șoferul este antrenat să se relaxeze, reducând vigilența, dar trebuie să fie pregătit să intervină rapid în situații neașteptate. El a început să folosească FSD mai întâi pe autostradă, unde funcționarea părea mai simplă, trecând apoi la drumuri locale. Utilizarea a devenit un obicei, transformând vigilența constantă într-o supraveghere relaxată. Conform lui Krikorian, acest aspect este cheia întregii probleme.
Mai mult, Krikorian atinge subiectul delicat al responsabilității legale. Sistemul FSD este încadrat legal ca nivelul 2, ceea ce înseamnă că responsabilitatea finală revine șoferului. Atunci când tehnologia funcționează, Tesla beneficiază de imagine, dar când apar probleme, responsabilitatea revine șoferului. Această asimetrie subliniază o problemă majoră.
Problema supravegherii umane
Miezul criticii lui Krikorian se concentrează pe ideea că Tesla cere șoferilor să supravegheze un sistem care face această supraveghere să pară inutilă. O mașină care are performanțe bune în majoritatea timpului induce o stare de relaxare, iar asta crește riscul de accidente. El citează cercetări care arată că oamenii au nevoie de câteva secunde pentru a se reconecta mental la condus, după ce au lăsat automatizarea să funcționeze. Aceste secunde pot face diferența între o reacție promptă și un accident.
Krikorian argumentează că argumentul simplu „șoferul trebuia să fie atent” este insuficient. Din punct de vedere psihologic și operațional, sistemul antrenează șoferul într-o stare de supraveghere relaxată. Atunci când sistemul greșește, șoferul trebuie să treacă instantaneu de la pasager la salvator.
Implicații și evoluții recente
Critica lui Krikorian este cu atât mai puternică cu cât vine din interiorul industriei. El nu respinge automatizarea, ci critică implementarea specifică a Tesla. Krikorian mai subliniază modul în care Tesla folosește datele colectate după accidente, care pot fi folosite pentru a muta vina asupra șoferului. De asemenea, accesul utilizatorilor la propriile date nu a fost întotdeauna simplu sau complet.
Agenția americană pentru siguranța traficului rutier (NHTSA) a ridicat investigația privind FSD la nivelul unei analize inginerești, un pas serios care ar putea duce la rechemări. În prezent, investigația vizează aproximativ 3,2 milioane de vehicule.

Fii primul care comentează