Werbung

Beilegung der Debatte: Rettet Teslas Autopilot Leben oder riskiert er sie?

Es kann 360 Grad um sich herum sehen, aber liefert FSD das, wofür es beworben wird?

Teslas Autopilot wird niemals trinken und fahren, was ihn in mancher Hinsicht objektiv besser macht als Menschen. Aber ist er tatsächlich sicher?

Der Hersteller von Elektrofahrzeugen behauptet, dass seine Autopilot-Technologie Leben rettet, und es gab einige gemeldete Vorfälle die ihre Behauptungen bestätigen. Gleichzeitig gab es jedoch auch eine Vielzahl verschiedener Arten von Autopilot-Verkehrsunfälle, von denen einige durch Fehler mit Autopilot-Systemen verursacht wurden.

Ter stellt die Zuverlässigkeit von Teslas Autopilot-System und Autopilot-Systemen im Allgemeinen in Frage. Erschwerend kommt die kühne Behauptung von Tesla-CEO Elon Musk hinzu. Im Laufe der Jahre hat er immer wieder die Fähigkeiten desAutopilot-System des Unternehmens, was den Anschein erweckt, dass das System fortschrittlicher ist, als es tatsächlich ist. Beispielsweise sagte er in einem Pressegespräch im Jahr 2016, dass Tesla-Fahrzeuge bis Ende 2017 in der Lage sein würden, sich selbst von Küste zu Küste zu steuern.Wir werden in der Lage sein, eine Demonstration der vollständigen Autonomie den ganzen Weg von LA nach New York zu machen. Also im Grunde von zu Hause in LA zum Times Square in New York. Und dann lassen Sie das Auto bis Ende nächsten Jahres los und parken," er sagte.

Das ist offensichtlich nicht passiert. Wie fortschrittlich und wie sicher ist Teslas Autopilot?

Wie ist der aktuelle Status von Teslas Autopilot?

Quelle: Vlad Tchampalov/Unsplash

Tesla führte die Autopilot-Funktion zum ersten Mal im Jahr 2014 in seinen Model S-Fahrzeugen ein und seitdem entwickelt und verbessert das Unternehmen das System, um bessere Versionen seiner Autopilot-Technologie zu entwickeln.

Die Society of Automotive Engineers SAE hat Teslas Autopiloten auf Level 2 gesetzt. Zum Zeitpunkt des Schreibens wurde in den USA kein Auto über SAE Level 2 verkauft, da es nicht die Anforderungen erfüllt, um als "völlig autonom" bezeichnet zu werdenFahrzeuge."

Insofern ist Teslas „Autopilot“ eigentlich ein fortschrittliches Fahrerassistenzsystem ADAS, was bedeutet, dass es teilweise autonom ist, also auch wenn das Auto im Selbstfahrmodus fährt.Der menschliche Fahrer muss regelmäßig Kontakt mit dem Lenkrad und anderen Bedienelementen aufnehmen. Falls das System eine längere Abwesenheit des Fahrers erkennt, stoppt es das Auto automatisch.

Werbung

Das Autopilot-System von Tesla ist nicht nur eine Komponente oder ein Gerät, sondern eine Mischung aus High-Tech-Hardware.KI-Technologie, und fortschrittliche Computersoftware. Das System erhält auch regelmäßige Updates.

Aktuelle Tesla-Modelle sind mit zwölf Ultraschallsensoren und einem Vorwärtsradar ausgestattet, um Fahrspurlinien zu lesen und Autos in der Nähe zu erkennen. Darüber hinaus gibt es acht Surround-Kameras, die eine 360-Grad-Sicht in einem Bereich von 250 Metern um das Auto bieten.Tesla lässt den vorderen Radarsensor in einigen zukünftigen Modellen fallen und beginnt mit der Einführung dessen, was das Unternehmen "Tesla Vision" nennt.

Und mit solchen Fortschritten ist das Unternehmen zuversichtlich, Tesla schließlich auf die Stufe 5 der Autonomie zu bringen.

Laut Tesla laufen die voll-selbstfahrenden Computer an Bord seiner modernen Elektroautos auf einem neuronalen Netz, das vom Unternehmen exklusiv für seine Autopilot-Entwicklung und Trainingszwecke entwickelt wurde.

Werbung

Sie behaupten, dass diese Computer eine 40-mal höhere Datenverarbeitungsgeschwindigkeit haben als bisher entwickelte Systeme. Dies deutet darauf hin, dass der Autopilot gut gerüstet ist, um schnelle Entscheidungen auf der Straße zu treffen, um unglückliche Zwischenfälle zu vermeiden. Um jedoch vollständigen Zugriff zu erhaltenZu all diesen Funktionen müssen die Verbraucher ein zusätzliches Full Self-Driving FSD-Fähigkeitspaket im Wert von 10.000 US-Dollar zum Standard-Tesla-Fahrzeug hinzufügen.

Laut der Weltgesundheitsorganisation werden jedes Jahr etwa 1,3 Millionen Todesfälle durch Verkehrsunfälle verursacht. Tesla gibt zu, dass ihr Autopilotsystem nicht alle solch verheerenden Unfälle verhindern kann, aber sie glauben, dass, wenn das aktuelle Sicherheitsniveau von Tesla-Fahrzeugen angewendet wirdim großen Stil könnten dann jedes Jahr bis zu 900.000 Menschenleben gerettet werden.

Tesla hat jedoch nicht auf eine Bitte um einen Kommentar geantwortet. auf ihrer Website wird das erwähnt, im Vergleich zu einem menschlichen Fahrer kann der Autopilot die Welt viel detaillierter wahrnehmen. Zum Beispiel stellt das Unternehmen fest, dass Menschen, die ein Auto fahren, nicht in alle Richtungen gleichzeitig sehen können.Ihr Autopilot ist nicht nur in der Lage, während der Fahrt in jede Richtung zu fokussieren, sondern kann auch Wellenlängen und Frequenzen erfassen, die für den Menschen nicht wahrnehmbar sind.

Werbung

Es muss beachtet werden, dass auf der Tesla-Website auch angegeben ist, dass "Tesla-Autos standardmäßig mit fortschrittlicher Hardware ausgestattet sind. fähig zu bietet Autopilot-Funktionen und vollständige Selbstfahrfunktionen." Dies klingt ein wenig so, als hätten die Fahrzeuge bereits volle Selbstfahrfunktionen und könnten für einige Verbraucher verwirrend sein. Es ist ziemlich leicht, die "Fähigkeit zur Bereitstellung" falsch zu verstehen" im Sinne von "bereitstellen."

Teslas neueste Fahrzeugsicherheitsbericht deutet darauf hin, dass im ersten Quartal 2021 nur ein Unfall pro 4,19 Millionen Meilen gemeldet wurde, die vom Tesla-Autopiloten zurückgelegt wurden.

Elon Musk auf Teslas Autopilot-System

Quelle: NVIDIA Corporation/flickr

Tesla-CEO Elon Musk steht stark zu dem von seinem Unternehmen entwickelten Autopilot-System. In vielen seiner Interviews und Veranstaltungen erwähnt er immer wieder, dass jedes Jahr Millionen von Menschen bei Verkehrsunfällen sterben und wies darauf hin, dass Autopilot diese Zahlen deutlich reduzieren kann.

Werbung

Er behauptete sogar einmal, dass Teslas Autopilot-fähige Fahrzeuge im Vergleich zu manuell gefahrenen Autos das Unfallrisiko verringern können.um 10 mal. Viele Experten hielten diese Tatsache jedoch für irreführend und argumentierten, dass Elon Musk übertreibt oft das Sicherheitspotenzial der selbstfahrenden Autos von Tesla.

Auf die Frage "Kann Tesla verantwortlich gemacht werden, wenn eines seiner Autopilot-Autos abstürzt?"Musk antwortete,"Übernimmt Otis die Verantwortung für alle Aufzüge auf der ganzen Welt? Nein, das tun sie nicht." Er fügte hinzu, dass das Unternehmen nur für den Fall verantwortlich ist, dass seine Konstruktions- oder Autopilot-Software fehlerhaft ist.

Im März 2018 starb der 38-jährige Software-Ingenieur Wei Huang bei einem Autounfall, als er ein Tesla Model X fuhr. Berichten zufolge befand sich das Auto während des Unfalls im Autopilot-Modus.Huangs Familie verklagt Tesla und dieser unglückliche Vorfall erregte viel Aufmerksamkeit in den Medien, sie behaupteten, dass Musks Unternehmen nicht genügend Sicherheitsfunktionen in ihren Autopilot-Autos bereitstellt und dass sie ihre Autopiloten tatsächlich mit ihren Verbrauchern als Live-Fahrer testen.

Werbung

Zu Teslas VerteidigungMusk antwortete mit den Wortendass Model X das von Huang gefahrene Automodell nicht auf einem vollständig selbstfahrenden System läuft. Stattdessen ist der Autopilot in diesem Modell ein "hands-on" -System, was bedeutet, dass ein Fahrer nicht entfernen sollihre Hände vom Lenkrad, wenn der Autopilot eingeschaltet ist, und in diesem Fall erhalten sie eine Warnung vom System.

Als die endgültige Entscheidung des National Transportation Safety Board NTSB in Bezug auf den Fall herauskam, hielt das Board Teslas Autopilot-System und der Fahrer der die Untersuchung ergab, dass er vor dem Unfall möglicherweise ein Videospiel auf seinem Handy spieltekollektiv verantwortlich für den Autounfall. Der NTSB verurteilte auch staatliche Aufsichtsbehörden dafür, dass sie ihre Sicherheitsempfehlungen für selbstfahrende Fahrzeuge nicht umgesetzt haben.

Werbung

Elon Musk war auch wütend über die intensive Medienberichterstattung über diesen Vorfall. Im Interview, sagte Musk: „Sie sollten eine Geschichte darüber schreiben, wie autonome Autos wirklich sicher sind, aber das ist keine Geschichte, auf die die Leute klicken wollen. Sie schreiben aufrührerische Schlagzeilen, die die Leser grundlegend irreführen. Es ist wirklich empörend.“

Selbst in den meisten seiner jüngsten Interviews bestreitet Musk im Allgemeinen die Wahrscheinlichkeit eines tödlichen Autounfalls, der durch Fehler beim Autopiloten verursacht wirdsichereres Reiseerlebnis. Allerdings hat er vorher gesagt dass, wie alles andere in der realen Welt, auch der Autopilot nie perfekt sein wird.

Kürzlich hat Tesla seine neueste selbstfahrende Software vorgestellt, FSD-Beta 9.2, aber Elon Musk scheint davon nicht beeindruckt zu sein. In einem seiner Tweets sagte er, dass FSD Beta 9.2 nicht großartig ist und sein KI-Team daran arbeitet, die Software weiter zu verbessern.Als er einem Benutzer auf Twitter antwortete, erwähnte er auch, dass er ein selbstfahrendes System anstrebt, das sich als 1000% sicherer als ein normaler menschlicher Fahrer herausstellen könnte.

Wer ist wirklich schuld, wenn ein selbstfahrendes Auto einen Unfall hat?

Quelle: Pixabay/Pexels

Automobilingenieure und Branchenexperten glauben, dass autonome Fahrzeugsysteme wie die Autopilot-Technologie von Tesla ein großes Potenzial haben, das Fahren für den Menschen sicherer und bequemer zu machen, aber sie können es auchFehler machen.Adie wirklich eindringliche Frage ist, wenn sie Fehler machen, wer wird die Schuld auf sich nehmen, legal?

Eine Forschungsarbeit veröffentlicht im Jahr 2019 von der Cornell University verwendet Informatik und Spieltheorie, um eine Antwort auf diese Frage zu versuchen. Diese Studie legt nahe, dass menschliche Fahrer in einem selbstfahrenden Auto wahrscheinlich sorgloser handeln, weil sie dazu neigen, dies zu glaubenDie Technologie für fahrerlose Autos wird sie immer sicher auf den Straßen halten. Die Forscher empfahlen der Politik, eine Reihe optimaler Haftungsregeln zu entwerfen, die Fahrer, Autohersteller, Verkehrsbehörden und auch das System selbstfahrender Autos regulieren könnten.

Im Jahr 2021, eine andere Studieveröffentlicht in der FachzeitschriftRisikoanalyse zeigt, dass im Falle eines Crashs mit einem selbstfahrenden Fahrzeug die Bevölkerung eher dem Autohersteller und dem autonomen Fahrsystem des Autos als dem Fahrer die Schuld gibt. Daher schreiben die Autoren dieser Forschungsarbeitschlagen vor, dass die Regulierungsbehörden bei der Entwicklung von Richtlinien für autonome Fahrzeuge AVs auch die Ausarbeitung von Regeln in Betracht ziehen sollten, die eine Entschädigung für Unfallopfer und ihre Familien vorschlagen.

Die beiden Studien verdeutlichen die Komplexität der rechtlichen Haftung bei einem AV-Unfall. Bei der aktuellen Generation von meist teilautonomen selbstfahrenden Autos kann man weder den Autoherstellern noch den Autobesitzern die Schuld gebenDaher wird es für staatliche Aufsichtsbehörden eine schwierige Aufgabe sein, eine scheinbar faire und allgemein akzeptierte Richtlinie für die gesetzliche Haftung für autonome Fahrzeuge zu entwickeln.

Ist Teslas Autopilot also sicher oder nicht?

Quelle: Bram Van Oost/Unsplash

Teslas Autopilot ist ein intelligentes KI-basiertes Fahrzeug Technologie, sie entwickelt sich ständig weiter und durchläuft verschiedene Entwicklungsstadien, die sowohl Software- als auch Hardware-Upgrades umfassen. Der Autopilot wird auch von einem fortschrittlichen autonomen Bremssystem unterstützt. Tesla ist einer von mehreren Fahrzeugherstellern, die diese Sicherheitsfunktion anbieten, obwohl Teslabietet es in allen seinen Autos an.

Von Radar über 360-Grad-Kameras bis hin zu fortschrittlicher sensorbasierter Abdeckung gibt es zahlreiche Funktionen, die diese Fahrzeuge zu den besten selbstfahrenden Autos der Welt machen. Wenn wir die Sicherheitsfunktionen des Autopiloten, das Design, die Verarbeitungsqualität undComputerintelligenz, die Tesla in seinen Autos bietet, können Tesla-Fahrzeuge die mit dem Fahren verbundenen Straßenrisiken durchaus minimieren, obwohl kein Fahrzeug völlig sicher sein kann, autonom oder nicht.

Ein wichtiger Punkt, der von Automobilexperten oft hervorgehoben wird, ist jedoch, dass der Autopilot in den selbstfahrenden Autos von Tesla kein völlig unabhängiges System ist. Alle ihre Modelle erfordern eine aktive menschliche Aufsicht und wenn ein Benutzer dies ignoriert, ist er definitiv auf dem richtigen Weg.Risiko.

Zuvor gemeldete Autopilot-Autocrash-Vorfälle erklären auch, dass dies noch eine Technologie in der Entwicklung ist, so dass es immer die Möglichkeit gibt, dass computerbasierte selbstfahrende Systeme bei der Analyse oder Reaktion auf Verkehrs- oder Straßenbedingungen einen Fehler machen.

Vor kurzem hat auch die National Highway Traffic Safety Administration NHTSA ein formelle Untersuchung um das fahrerunterstützte Autopilotsystem von Tesla zu untersuchen. Die Untersuchung wird alle Tesla-Autopiloten berücksichtigen, die von 2014 bis 2021 verkauft wurden.

Wenn wir jetzt eine Schlussfolgerung ziehen müssen, dann ist Teslas Autopilot zweifellos eine hochmoderne Technologie, die entwickelt wurde, um die menschliche Sicherheit zu erhöhen, aber gleichzeitig, und es scheint, dass dies tatsächlich der Fall ist. Es muss jedoch gehandhabt werdenmit Sorgfalt und Vorsicht und sachgerecht verwendet werden, wie dies bei allen Technologien der Fall ist.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.