Ein Tesla, der nach Angaben des Fahrers auf Autopilot war, krachte erneut in ein angehaltenes Polizeiauto. Image for article titled A Tesla That The Driver Says Was On Autopilot Crashed Into A Stopped Police Car, Again

Foto: Florida Highway Patrol

Kürzlich haben wir darüber berichtet, dass die NHTSA eine Untersuchung über Teslas mit dem teilautomatisierten Fahrsystem Autopilot Level 2 eingeleitet hat, die in Einsatzfahrzeuge wie Polizei- oder Feuerwehrautos gekracht sind. Ein weiterer solcher Unfall könnte sich am Samstagmorgen ereignet haben , als ein Tesla Model 3 in Orlando, Florida, in ein Polizeiauto krachte, das am Straßenrand angehalten hatte, um einem Autofahrer zu helfen. Glücklicherweise wurde niemand verletzt, aber dies scheint die Idee zu verstärken, dass Autopilot ein Problem mit Autorität hat.

In einer Erklärung der Florida Highway Patrol (FHP) heißt es, dass ein FHP-Beamter angehalten hatte, um einem Fahrer mit einem behinderten 2012 Mercedes-Benz GLK 350 auf dem Seitenstreifen der I-4 bei Orlando zu helfen.

Das 2019 Tesla Model 3, das sich nach Angaben des Fahrers im Autopilot-Modus befand, stieß mit dem Polizeiauto zusammen und streifte es seitlich. Dann stieß es auch noch mit dem beschädigten Mercedes zusammen, vielleicht nur, um wirklich dieough und sicher zu sein, dass jedermanns Tag ruiniert sein würde.

Derzeit findet eine Untersuchung statt, um diePorts über den Status von Autopilot zu bestätigen und zu klären, welche Rolle es bei dem Unfall gespielt hat. Es ist sicherlich nicht ausgeschlossen, dass sich diese Informationen als falsch erweisen, aber andererseits ist diese Art von Vorfall schon einmal mit Autopilot aufgetreten, daher die NHTSA-Untersuchung.

Image for article titled A Tesla That The Driver Says Was On Autopilot Crashed Into A Stopped Police Car, Again

Foto: Florida Highway Patrol

G/O Media könnte eine Provision erhalten

Ich habe meine Haltung zu Autopilot und eigentlich zu allen halbautomatischen Fahrsystemen der Stufe 2 deutlich gemacht: Sie sind schlecht, nicht unbedingt aus technischen Gründen, sondern aus konzeptionellen Gründen, die damit zu tun haben, wie Menschen – der primäre Zielmarkt von Teslas und vielen anderen neuen Autos – mit ihnen interagieren. Und ich bin nicht der Einzige, der so denkt.

Menschen sind ziemlich gut darin, das Auftauchen von Hindernissen zu vermeiden.

ncy Fahrzeuge auf der Seite der Autobahn geparkt. Der Autopilot scheint darin ziemlich schlecht zu sein. Wenn Autopilot in diesem Fall richtig eingesetzt worden wäre, hätte der menschliche Fahrer gesehen, dass das Auto in das Polizeiauto fahren wollte, und hätte das Steuer übernommen.

Das Problem ist jedoch, dass wenn ein System fast das gesamte Fahren übernimmt – wie es Autopilot in Autobahnsituationen oft tun kann und wie das System im Allgemeinen nachweislich funktioniert – der Mensch schlecht in der Lage ist, sich auf die Überwachung des Systems zu konzentrieren.

Das ist natürlich die Schuld des Menschen, aber es ist auch das Ergebnis eines schlechten Systems, das nicht berücksichtigt, wie Menschen tatsächlich funktionieren. Das ist wie bei der schrecklichen Hockey-Puck-Maus, die Apple vor etwa 20 Jahren hergestellt hat:

Sie war technisch in Ordnung, aber das Design berücksichtigte nicht, wie menschliche Hände tatsächlich geformt sind, und war deshalb eine Katastrophe.

Diese Mäuse krachten nicht in Polizeiautos am Straßenrand, das sollte auch erwähnt werden. Autopilot und andere L2-Systememachen denselben grundlegenden Fehler, indem sie ignorieren, wie Menschen tatsächlich arbeiten.

Ich bin neugierig auf die Ergebnisse dieser Untersuchung und darauf, ob ein Video aus dem Auto gezogen werden kann. Sollte sich herausstellen, dass Autopilot die Kontrolle hatte, würde ich hoffen, dass dies Tesla dazu anspornt, die Fähigkeit, parkenden Autos am Straßenrand auszuweichen, in einem Update des Systems so schnell wie möglich zu verbessern.