Ein Team von Forschern der unabhängigen Firma AMCI Testing fuhr einen Tesla im Full-Self-Driving-Modus über 1.000 Meilen und stufte seine Fähigkeiten als ‚fragwürdig‘ ein, da gefährliche und unvorhersehbare Verstöße wie das Überfahren einer roten Ampel auftraten.
Obwohl das System in einigen Aspekten beeindruckend war, waren die Tester nicht überzeugt, dass es bereit ist, vollständig autonom zu sein – ein Rückschlag für Teslas CEO Elon Musks Ambitionen, einen fahrerlosen Robotaxi-Service zu starten.
Laut der Firma mussten die Tester über 75 Mal eingreifen, während Full Self-Driving die Kontrolle hatte. Im Durchschnitt war das alle 13 Meilen einmal nötig. Das ist angesichts dessen, dass der durchschnittliche Fahrer in den USA etwa 35 bis 40 Meilen pro Tag zurücklegt, eine alarmierend hohe Rate menschlichen Eingreifens.
AMCI-Direktor Guy Mangiamele sagte in einer Erklärung: ‚Am beunruhigendsten und unvorhersehbarsten ist, dass man FSD oft erfolgreich eine spezifische Situation bewältigen sehen kann – oft auf demselben Straßenabschnitt oder an derselben Kreuzung -, nur um beim nächsten Mal unerklärlich zu versagen.‘
In drei Videos wurden die Ergebnisse zusammengefasst. Full Self-Driving meisterte mehrere Szenarien bewundernswert. Aber in einer Aktivität, bei der Sicherheit oberste Priorität haben sollte, muss Full Self-Driving nahezu fehlerfrei sein. Das war es definitiv nicht.
Musk hat den Start eines fahrerlosen Robotaxi-Dienstes angeteasert, der angeblich ein neues Fahrzeug nutzen würde, das von Fans als ‚Cybercab‘ bezeichnet wird. Doch wenn man sich AMCI’s Tests ansieht, könnte die autonome Fahrtechnologie des Unternehmens möglicherweise nicht sicher genug für diese Aufgabe sein.
Es ist unklar, wie sich seine Sicherheitsbilanz im Vergleich zu den Möglichkeiten von Wettbewerbern wie Waymo darstellt. Selbst mit einem Menschen am Steuer birgt Full Self-Driving laut Mangiamele erhebliche Risiken, da es ‚ein Gefühl der Ehrfurcht hervorruft, das zwangsläufig zu gefährlicher Selbstzufriedenheit führt‘.