Die Straßenverkehrssicherheitsbehörde der US-Regierung untersucht erneut das „Full Self-Driving“-System von Tesla, dieses Mal nachdem Berichte über Unfälle bei schlechten Sichtverhältnissen eingegangen sind, darunter einer, bei dem ein Fußgänger getötet wurde.
Die National Highway Traffic Safety Administration gibt in Dokumenten an, dass sie die Untersuchung am 17. Oktober eingeleitet habe, nachdem das Unternehmen vier Unfälle gemeldet hatte, nachdem Teslas in Bereiche mit schlechter Sicht gelangt waren, darunter Sonnenlicht, Nebel und in der Luft schwebender Staub.
Neben dem Tod des Fußgängers verursachte ein weiterer Unfall Verletzungen, teilte die Behörde mit.
Die Forscher werden die Fähigkeit des „vollständig autonomen Fahrens“ untersuchen, „schlechte Sichtverhältnisse auf der Straße und, wenn ja, die Umstände, die zu diesen Unfällen beitragen, zu erkennen und angemessen darauf zu reagieren“.
Die Untersuchung umfasst rund 2,4 Millionen Teslas der Modelljahre 2016 bis 2024.
Am 18. Oktober wurde eine Nachricht mit der Bitte um eine Stellungnahme von Tesla hinterlassen, in der wiederholt erklärt wurde, dass das System nicht selbst fahren kann und dass menschliche Fahrer jederzeit bereit sein müssen, einzugreifen.
Letzte Woche veranstaltete Tesla eine Veranstaltung in einem Hollywood-Studio, um ein völlig autonomes Robo-Taxi ohne Lenkrad und Pedale vorzustellen. CEO Elon Musk sagte, das Unternehmen plane, im nächsten Jahr vollständig autonome Fahrzeuge ohne menschliche Fahrer und im Jahr 2026 Robotertaxis zur Verfügung zu stellen.
Die Behörde kündigte außerdem an, dass sie prüfen werde, ob sich weitere ähnliche Unfälle mit „vollständig autonomem Fahren“ bei schlechten Sichtverhältnissen ereigneten, und dass sie Informationen darüber anfordern werde, ob unter diesen Bedingungen Aktualisierungen vorgenommen wurden, die die Systemleistung beeinträchtigten.
„Im Rahmen der Überprüfung werden insbesondere der Zeitpunkt, der Zweck und die Möglichkeiten solcher Updates sowie Telsas Einschätzung ihrer Auswirkungen auf die Sicherheit bewertet“, heißt es in den Dokumenten.
Tesla rief das „Full Self-Driving“-System zweimal auf Druck der Behörde zurück, die im Juli Informationen von den Strafverfolgungsbehörden und dem Unternehmen anforderte, nachdem ein Tesla, der das System nutzte, in der Nähe von Seattle kollidierte und einen Motorradfahrer tötete.
Die Rückrufe wurden durchgeführt, weil das System so programmiert war, dass es Stoppschilder bei niedrigen Geschwindigkeiten betätigte, und weil das System nicht den Verkehrsregeln entsprach. Beide Probleme sollten durch Online-Software-Updates behoben werden.
Kritiker sagten, dass das System von Tesla, das nur Kameras zur Erkennung von Gefahren verwendet, nicht über geeignete Sensoren verfüge, um vollständig autonom zu sein. Fast jedes andere Unternehmen, das an autonomen Fahrzeugen arbeitet, nutzt neben Kameras auch Radar- und Lasersensoren, um im Dunkeln oder bei schlechten Sichtverhältnissen besser sehen zu können.
Die „Full Self-Driving“-Rückrufe erfolgten nach einer dreijährigen Untersuchung des weniger ausgereiften Autopilot-Systems von Tesla, das in Notsituationen abstürzte, und anderer auf Autobahnen geparkter Fahrzeuge, viele davon mit blinkenden Warnlichtern.
Diese Untersuchung wurde letzten April eingestellt, nachdem die Behörde Tesla unter Druck gesetzt hatte, seine Fahrzeuge zurückzurufen, um ein schwaches System zu stützen, das die Aufmerksamkeit der Fahrer sicherstellte. Einige Wochen nach dem Rückruf begann die NHTSA zu untersuchen, ob der Rückruf funktionierte.
Die am 17. Oktober eingeleitete Untersuchung betritt Neuland für die NHTSA, die zuvor Teslas Systeme als unterstützende Fahrer und nicht als autonomes Fahren betrachtete. Mit der neuen Umfrage konzentriert sich die Agentur auf die Möglichkeiten des „vollständig autonomen Fahrens“ und nicht nur darauf, dass die Fahrer darauf achten.
Diese Geschichte wurde von Associated Press berichtet.