# Cybertruck implicat într-un accident, sistemul de conducere autonomă sub lupă

Un recent accident în care a fost implicat un Cybertruck Tesla, despre care se presupune că folosea sistemul de conducere autonomă FSD, readuce în discuție siguranța și responsabilitatea acestor tehnologii. Incidentul, care a avut loc în Houston, Statele Unite, este investigat de autorități. În același timp, criticile la adresa sistemului FSD al companiei americane se amplifică.

Patru secunde critice: problema timpului de reacție

Incidentul, filmat de o cameră de bord, arată momentul în care un Cybertruck pare să se îndrepte spre marginea unui pod, izbindu-se ulterior de un parapet. Șoferița susține că a suferit diverse leziuni în urma impactului. În urma accidentului, Elon Musk și Tesla încearcă să apere sistemul FSD. Aceștia susțin că sistemul nu era activ în ultimele patru secunde anterioare impactului.

Această apărare, însă, ridică mai multe semne de întrebare. Chiar dacă sistemul a fost dezactivat cu puțin timp înainte de impact, acest lucru nu dovedește nevinovăția FSD. Din contră, ar putea sugera că șoferița a intervenit tocmai pentru că sistemul nu funcționa corespunzător. La viteze mari, câteva secunde pot fi cruciale pentru a evita un accident.

Raffi Krikorian, fostul șef al programului de mașini autonome de la Uber, a subliniat, într-un eseu recent, dificultatea umană de a supraveghea constant un sistem care funcționează bine, dar nu perfect. Această încredere, combinată cu o necesitate de reacție promptă în situații critice, reprezintă o breșă majoră în siguranța sistemelor de conducere autonomă.

Tesla și răspunderea: o strategie fragilă

Tesla, prin intermediul lui Elon Musk, folosește adesea o strategie de apărare similară, invocând limitele legale ale sistemului Level 2 și responsabilitatea șoferului. Atunci când totul merge bine, Tesla se bucură de imaginea pozitivă asociată tehnologiei. Când apar probleme, vina este transferată utilizatorului.

Această abordare este din ce în ce mai dificil de susținut. Agenția Națională pentru Siguranța Traficului Rutier (NHTSA) a intensificat investigația asupra sistemului FSD, examinând modul în care acesta gestionează condițiile dificile de vizibilitate și semnalizarea pericolelor. De asemenea, au fost raportate multiple incidente și accidente asociate cu FSD.

Contextul juridic nu este favorabil pentru Tesla. În august 2025, o instanță din Florida a obligat compania să plătească 243 de milioane de dolari într-un proces legat de un accident fatal cu Autopilot, decizie menținută de un judecător federal. Aceste evoluții indică o abordare mai strictă a responsabilității sistemelor semi-autonome.

Punctul nevralgic: incapacitatea de a repara o greșeală

Afirmația conform căreia FSD a fost dezactivat cu patru secunde înainte de impact poate fi corectă din punct de vedere tehnic. Totuși, ca interpretare publică, această abordare poate fi înșelătoare. Ea mută atenția de la întrebarea crucială, dacă sistemul a pus mașina într-o situație irecuperabilă, la cine era la comandă în ultimele momente.

Imaginile de la fața locului sugerează că, deși șoferița a dezactivat sistemul, acest lucru s-a produs într-un moment în care dezastrul era deja inevitabil. Presiunea instituțională se intensifică, iar investigațiile NHTSA indică o atenție sporită asupra siguranței și responsabilității sistemelor autonome.