Die NHTSA (National Highway Traffic Safety Administration) war in einer mehrjährigen Untersuchung zum Schluss gekommen, dass «Autopilot» es Fahrerinnen und Fahrern zu leicht machte, die Kontrolle komplett dem System zu überlassen - obwohl sie ständig die Verkehrslage im Blick behalten müssen.

Die NHTSA analysierte insgesamt 956 Unfälle aus dem Zeitraum von Januar 2018 bis August 2023. Bei 29 davon gab es Tote. In vielen Fällen seien die Unfälle zu vermeiden gewesen, wenn die Fahrerinnen und Fahrer aufgepasst hätten, betonte die Behörde in ihrem am Freitag veröffentlichten Bericht.

So sei bei 59 von 109 Zusammenstössen, zu denen es genug Daten für eine solche Analyse gebe, das Hindernis mindestens fünf Sekunden vor dem Unfall sichtbar gewesen. Als ein Beispiel nannte die NHTSA einen Unfall im März 2023, bei dem ein Minderjähriger, der einen Schulbus verliess, von einem Model Y angefahren und schwer verletzt wurde.

Tesla hatte mit dem als offizielle Rückrufaktion durchgeführten Online-Update unter anderem zusätzliche Hinweise für die Fahrer eingeführt. Der Autobauer verweist zwar darauf, dass «Autopilot» einen Tesla nicht zu einem selbstfahrenden Auto mache und die Menschen am Steuer jederzeit bereit sein müssten, die Kontrolle zu übernehmen. Schon die US-Unfallermittlungsbehörde NTSB warnte aber, dass Fahrer sich zu sehr auf die Technik verliessen.

Nicht alle Unfälle erfasst

Die NHTSA stellte in ihrem Bericht zugleich fest, dass es Lücken in Teslas Sammlung von Fahrzeugdaten gebe, durch die die tatsächliche Zahl von «Autopilot»-Unfällen schwer zu ermitteln sei. So bekomme der Autobauer Unfalldaten grösstenteils nur, wenn Airbags oder Gurtstraffer ausgelöst würden. Das passiere aber nach der allgemeinen Unfallstatistik von 2021 nur bei 18 Prozent aller der Polizei gemeldeten Zusammenstösse.

Ausserdem sei eine Voraussetzung für die Datenübertragung an Tesla, dass ein Mobilfunk-Netz vorhanden sei und die Antenne nach dem Unfall funktioniere. Elektroautos brennen nach Unfällen in vielen Fällen aus, weil Batterien in Flammen aufgehen.

Fehlannahmen durch Name

Die Verkehrssicherheitsbehörde NHTSA kritisierte auch den Namen des Systems. Die Bezeichnung «Autopilot» könne Fahrer dazu verleiten, die Fähigkeiten der Software zu überschätzen und sich auf sie zu verlassen. US-Autofahrer können aktuell eine fortgeschrittene «Autopilot»-Version mit dem Namen «Full Self-Driving» (komplett selbstfahrend) als Test-Version nutzen. Auch FSD macht die Wagen allerdings offiziell nicht zu einem autonomen Fahrzeug und sieht permanente Aufmerksamkeit des Menschen vor. Tesla ergänzte den Namen jüngst mit dem Zusatz «beaufsichtigt» in Klammern. Firmenchef Elon Musk versprach diese Woche abermals tatsächlich selbstfahrende Tesla-Autos. Anfang August will er ein Robotaxi vorstellen.

Das Standard-«Autopilot»-System kann das Tempo und den Abstand zum Fahrzeug davor sowie die Spur halten. Die FSD-Version soll unter anderem auch Ampeln, Stopp-Schilder und Vorfahrtsregeln auf Kreuzungen beherrschen.

Die US-Senatoren Edward Markey und Richard Blumenthal forderten die NHTSA nach dem Bericht auf, den Einsatz von «Autopilot» nur auf die Strassen zu beschränken, für die das System konzipiert sei.

(AWP)