Eine Straßengabelung in Yosemite scheint mehrere Tesla Autopilot Wracks verursacht zu haben Image for article titled One Road Fork In Yosemite Seems To Have Caused Multiple Tesla Autopilot Wrecks

Foto: Tesla/Google Maps

Ein Reddit-Nutzer berichtete von einem Unfall mit seinem 2020er Tesla Model X, der sich ereignete, während das Auto im Autopilot war. Das Interessante an diesem Wrack ist, dass es sich an einer Stelle ereignete, an der angeblich fünf andere Teslas im Autopilot-Modus auf sehr ähnliche Weise verunglückt sind. Was hat es mit diesem harmlos aussehenden, geteilten Straßenabschnitt auf sich?

Um es ganz offen zu sagen: Ich konnte bisher nur zwei weitere Unfälle mit Teslas an diesem Ort durch eine externe Quelle bestätigen, und zwar durch einen Anruf bei der für Yosemite aufgelisteten Garagenservice-/Abschleppfirma, aber dem Model X-Poster, der sich auf Reddit BBFLG nennt, wurde von einer Kombination aus Einheimischen und Rangern von insgesamt fünf Unfällen berichtet:

Ranger erzählten mir von drei Tesla-Unfällen in der Vergangenheit hier, dann von meinem Unfall… ein Einheimischer hielt an, um mir zu sagen, dass sein Tesla hier immer Probleme hat, und sagte auch, dass es hier mehrere Unfälle gegeben hat… dann schickte mir mein Abschleppwagenfahrer gerade heute Bilder von einem weiteren Unfall mit einem Model S am vergangenen Freitag – das sind fünf, von denen ich weiß.

Ob es nun drei sind (das Wrack des Reddit-Posters plus die beiden anderen, die von der Abschleppfirma bestätigt wurden) oder die ganzen fünf, die in dem Beitrag erwähnt wurden, das ist immer noch eine überraschende Menge, die an einem ganz bestimmten Punkt passiert. Die Werkstatt glaubte, dass diese Vorfälle mit Autopilot zusammenhängen, hatte aber keine eindeutige Bestätigung dafür, obwohl dies Sinn machen würde, da dies ein gemeinsames Element – dieselbe Fahrerassistenz – für alle diese Vorfälle wäre.

Im Folgenden beschreibt der Model X-Fahrer, was passiert ist:

Ich teile nur meine Geschichte von meinem 2020 Model X LR+ Unfall am 25. Juli. Geschwindigkeitszone von 25 km/h, zwei Fahrspuren, Spur eins biegt nach links ab, Spur zwei fährt geradeaus. Die Hände am Lenkrad, die Augen auf der Straße, das Fahrzeug wollte einfach nur geradeaus fahren, ich habe die Kontrolle übernommen, bin ins Kiesbett gefahren und gegen einen Felsbrocken geprallt. Kein Auslösen des Airbags, aber ich konnte nicht mehr fahren. Abgeschleppt bis zum Eingang des Parks (2 Stunden, fast $400), dann von dort nach Fresno geschleppt (2,5 Stunden, $500), dann mit einem Uber 3 Stunden nach San Luis Obispo gefahren, wo mich ein Freund mitgenommen hat (3 Stunden, fast $300)… dann von San Luis Obispo nach Flagstaff, AZ geflogen ($613)… jetzt zum Tesla Body Center in Tempe, AZ transportiert (über $900).

Nur wirklich, wirklich wollen, um herauszufinden, wie man diese Nachricht an Tesla zu bekommen und haben sie etwas tun und Blick auf ihre Karten … 5 Unfälle sind definitiv ein Problem, das untersucht werden muss. Zum Glück eine niedrige Geschwindigkeit 25mph Zone… aber es wollte gehen straight oder so scheint es, dann es kaum folgte die Kurve in der letzten Minute und auch mit den Händen auf dem Lenkrad gab es keine Möglichkeit, ich konnte stoppen oder drehen, wie es in einem Kies bedeckten Bereich. Ich hatte erst 3 Tage zuvor neue CrossClimate SUV-Reifen bekommen… argh.

G/O Media könnte eine Provision bekommen

Siehe auch  Die New York Auto Show wurde abgesagt

Zum Vergleich: So sieht diese Stelle aus:

Image for article titled One Road Fork In Yosemite Seems To Have Caused Multiple Tesla Autopilot Wrecks

Foto: Google Maps

Es handelt sich um eine Straße, die sich in einer Y-Formation aufspaltet, aber nichts wirklich Exotisches. Eine Autobahnausfahrt ist im Grunde das Gleiche, nur größer und mit höherer Geschwindigkeit.

Laut dem ursprünglichen Poster wollte das Model X “geradeaus fahren”, und obwohl der Fahrer dem Autopiloten die Kontrolle entzog, als er erkannte, was passierte, war es ein bisschen zu spät, da das Auto in den Schotterbereich einfuhr und gegen einen Felsen prallte, was zu dem Wrack führte, das so aussah:

Image for article titled One Road Fork In Yosemite Seems To Have Caused Multiple Tesla Autopilot Wrecks

Foto: Reddit/BBFLG

Interessanterweise erwähnte der Besitzer auch, dass sein Tesla am selben Wochenende den Vollmond mit einer gelben Ampel verwechselte – ein Phänomen, über das wir erst kürzlich hier berichtet haben.

Die angebliche Verwirrung des Tesla-Autopiloten könnte mit anderen ähnlichen Problemen zusammenhängen, die schon früher mit Autopilot und FSD in Bezug auf Fahrspuraufteilungen aufgetreten sind, insbesondere bei Fahrspuraufteilungen mit diagonal gestrichelten Linien, die die bevorstehende Aufteilung anzeigen – eine Straßenmarkierung, die Teslas halbautomatische Systeme nicht zu kennen scheinen.

Da ich keinen Zugriff auf den Entscheidungsbaum der neuronalen Netze habe, die den Weg des Tesla berechnen, weiß ich nicht genau, was das Auto vorgab zu denken, als es versuchte, geradeaus zu fahren. Es hört sich ein wenig so an, als sei es den durchgezogenen Fahrspurlinien gefolgt und hätte dann zu dem Zeitpunkt, als die Trennung begann, die abweichenden Fahrspurlinien in der Mitte als Definition einer nicht vorhandenen geraden mittleren Fahrspur interpretiert, aber das ist nur eine Vermutung.

Was ich mit größerer Sicherheit sagen kann, ist, dass das, was hier vor sich geht, ein großartiges Beispiel für ein Thema zu sein scheint, das hier vor etwa einem Monat diskutiert wurde: der Unterschied zwischen “Top-down”- und “Bottom-up”-Überlegungen, der die grundlegenden Unterschiede zwischen menschlichem und künstlichem Fahren definiert.

Siehe auch  Biden fordert die Zusage der Autohersteller, bis 2030 40 % der Verkäufe elektrisch zu tätigen

Ich empfehle die Lektüre des vollständigen (und nicht zu langen!) Papiers von M.L. Cummings zu diesem Thema, aber ich denke, wir können eine kurze Zusammenfassung machen Bewertung dieses Vorfalls mit den Begriffen im Kopf als Beispiel.

Kein halbwegs aufmerksamer Mensch würde diese Aufteilung der Straße als schwierig empfinden, weil wir effektiv “von oben nach unten” argumentieren. Das bedeutet, dass wir als Menschen in der Lage sind, die Szene im gesamten Kontext dessen zu sehen, wie wir die Welt verstehen.

Wir wissen im Allgemeinen, wo wir uns befinden, und wir wissen, dass sich Straßen manchmal teilen können, und wir wissen, dass die Rautenstreifen auf der Straße bedeuten, dass wir dort nicht fahren sollten, und wir können das gesamte Gelände sehen und verstehen, dass es dort viele Felsen gibt, wir wissen, dass wir uns in einem Nationalpark befinden und wie das unsere Aufmerksamkeitsstufe und unser Fahrverhalten verändert. Wir verstehen die gesamte Situation und können uns mit diesem Verständnis schnell und effektiv auf neue Situationen einstellen.

Eine KI verfügt nicht über dieses Bewusstsein, denn KIs haben kein so erfülltes, aufregendes menschliches Leben wie Sie oder (vielleicht in geringerem Maße) ich gelebt. KIs fahren mit einem “Bottom-up”-Ansatz, d. h. sie arbeiten eher mit einem Sensor-Eingabe-Reaktions-Zyklus, sehen die Straßenlinien und versuchen, das Auto auf der durch diese Linien definierten Spur zu halten, ohne jedoch den größeren Kontext um diese unmittelbaren visuellen Eingaben zu verstehen.

Folglich hat es keine Unterstützung, auf die es sich verlassen kann, wenn es zu Verwirrungen kommt. Wenn sich die Fahrspurlinien teilen, zeigt sich die Brüchigkeit des Systems, denn es kann nur versuchen, die beste Lösung für seine Aufgabe zu finden – in der Mitte der Fahrspur zu bleiben und den allgemeinen Anweisungen zu folgen – selbst wenn der Kontext (z. B. ein schöner Felsbrocken in der Sierra Nevada) nicht passt.

Siehe auch  Neu gebautes Lego-Formel-1-Auto stellt neuen Weltrekord auf€

Wir haben noch einen langen Weg vor uns, bis das Auto vollständig selbständig fährt. Situationen wie diese, so bedauerlich sie auch sein mögen, sind wirklich wichtige Beispiele, um zu sehen, warum. Sicherlich können die cleveren Programmierer von Tesla dem System beibringen, diese spezielle Situation in Zukunft zu verstehen, aber ähnliche, aber leicht abweichende Straßenführungen gibt es an unzähligen Orten auf der ganzen Welt, und es gibt keine Garantie, dass die KI in der Lage sein wird, diese mit der richtigen Vorgehensweise in Verbindung zu bringen.

Ich denke, dass es Möglichkeiten gibt, eine Art von größtenteils selbstfahrendem Fahren zu ermöglichen, wahrscheinlich indem wir unsere Ziele auf eine infrastrukturunterstützte Stufe 4 im Gegensatz zu einer vollständig autonomen Stufe 5 setzen, aber das ist eine weniger sexy Lösung, die tendenziell zum Verhängnis wird.

Ich habe den Besitzer des Model X um weitere Informationen gebeten und werde Sie auf dem Laufenden halten, sobald ich eine Antwort erhalte.

Ich denke, wir werden sehen. In der Zwischenzeit fahren Sie Ihren Tesla vielleicht einfach manuell, wenn Sie das nächste Mal beschließen, Yosemite zu genießen.