Werbung

Programmieren wir Killerautos? Die Ethik autonomer Fahrzeuge

Selbstfahrende Autos sind technologisch machbar geworden. Die Frage ist nun: Sind sie ethisch machbar?

Tesla-Autopilot Tesla / YouTube

In den letzten Jahren wurden immer mehr autonome Funktionen in Autos eingebettet. Und vor ein paar Monaten veröffentlichte Tesla das folgende Video, in dem es sich rühmte, „Full Self-Driving“ erreicht zu haben.

A Techopedia-Artikel berichtete, dass noch frühere Tesla-Autos "die notwendige Hardware für autonomes Fahren" enthielten, obwohl die Aktivierung der Fähigkeit von einem Software-Update abhing. Der Artikel sah auch den Unterschied zwischen der Art und Weise vor, wie sich heute gebaute autonome Autos von denen in Zukunft unterscheiden werden.

Derzeit sind Tesla-Fahrzeuge mit der für das autonome Fahren erforderlichen Hardware ausgestattet. Um die Funktion vollständig zu aktivieren, sind jedoch Software-Updates erforderlich. Sie ermöglicht zwar ein vollständig autonomes Fahren, ermöglicht es dem menschlichen Fahrer jedoch auch, die Kontrolle zu übernehmen, wenn die Situation dies erfordertzur Intervention.

Die nächste Generation autonomer Fahrzeuge würde jedoch keine Lenkräder, Pedale oder Getriebe benötigen. Der Vorteil solcher Autos ist die Möglichkeit, Unfälle zu reduzieren und den notwendigen Transport für Menschen bereitzustellen, die nicht in der Lage sind, wie ältere Menschen oder Menschen mit Sehvermögen zu fahrenoder körperliche Behinderungen.

Aber es gibt auch einen möglichen Nachteil: Die Notwendigkeit, dass die menschliche Agentur, die die Programmierung des Autos einrichtet, alle möglichen Szenarien vorhersieht und das Auto anweist, die Art von Urteilen zu fällen, die Menschen treffen müssen, wenn das Szenario Maßnahmen erfordert, die unvermeidlich sindirgendeine Form von Schaden verursachen.

Während Tesla der bekannteste Name an der KI-Front für Fahrzeuge ist, ist es sicherlich nicht der einzige Spieler in diesem wachsenden Markt. Einige weitaus ehrwürdigere Namen in der Branche sind ebenfalls aktiv geworden.

Werbung

VERBINDUNG: DIE INTERESSANTE GESCHICHTE VON ELEKTROWAGEN

Bernard Marr schrieb kürzlich über Toyotas Milliardeninvestition in selbstfahrende Autos und KI. Das Unternehmen hat sich Ziele gesetzt, die es bis 2020 erreichen will :

„Durch Toyotas Investitionen in Technologie-Start-ups wie Perceptive Automata soll die Technologie geschaffen werden, die autonomen Fahrzeugen eine menschlichere Intuition ermöglicht, wenn sie unterwegs sind, die der Interaktion menschlicher Fahrer mit Fußgängern ähnlicher ist.“

Erfolgsbilanz für selbstfahrende Sicherheit

Natürlich sind wir noch nicht da. Aber die Frage ist, ob dies das Endziel ist und ob es etwas ist, das wir verfolgen sollten, ohne die Auswirkungen eines völlig unabhängigen Autos vollständig zu berücksichtigen.

Jeder einzelne selbstfahrende Autounfall und Tod listet neun Unfälle mit autonomen Fahrzeugen auf, von denen nur vier Todesfälle verursachten. Trotz der Behauptungen des Titels ist die Liste jedoch unvollständig, da nach Veröffentlichung des Artikels Todesfälle aufgrund solcher Unfälle aufgetreten sind.

Der letzte gemeldete Todesfall war der mit a Tesla Model X am 23. März 2018. Der Fahrer des Autos starb, als es gegen eine Autobahnbarriere stieß. Tesla machte die Störung der Barriere durch das autonome Fahrsystem des Fahrzeugs dafür verantwortlich :

Werbung

"Der Grund, warum dieser Unfall so schwerwiegend war, liegt darin, dass der Crash-Abschwächer, eine Autobahn-Sicherheitsbarriere, die den Aufprall auf einen Fahrspurteiler reduzieren soll, bei einem früheren Unfall ohne Ersatz zerquetscht wurde", sagte Tesla in seiner Erklärung.

Das Unternehmen fügte hinzu: "Wir haben noch nie einen solchen Schaden an einem Modell X bei einem anderen Absturz gesehen."

Leider war dies nicht das Ende tödlicher Unfälle für Teslas selbstfahrende Autos. Einige davon ereigneten sich in diesem Jahr.

Unter den Vorfällen war einer am 1. März 2019. Es wurde von der bestätigt US National Transportation Safety Board NTSB dass die halbautonome Autopilot-Software auf einem Tesla Model 3 aktiviert war, als es gegen einen Sattelzug geknallt, der versucht, eine Autobahn in Florida zu überqueren, und der Autofahrer wurde getötet.

Werbung

Obwohl sie im Vergleich zu den von menschlichen Fahrern verursachten Autounfällen immer noch relativ selten sind, hat die Tatsache, dass es Unfälle und Todesfälle durch selbstfahrende Autos gibt, die Menschen um ihre Sicherheit und Programmierung besorgt gemacht. Tatsächlich in diesem Jahr Quarz Zweifel an Teslas Sicherheitsansprüchen aufkommen lassen.

Wie bei diesem Tesla-Unfall führen die meisten autonomen Autounfälle zum Tod der Person, die auf dem Fahrersitz sitzt. Es gab jedoch Fälle, in denen Personen außerhalb des Autos von autonomen Autos angefahren und getötet wurden.

Der berüchtigtste Vorfall dieser Art könnte der sein, an dem Uber im März 2018 beteiligt war. Elaine Herzberg . Die 49-jährige Frau ging und schob ihr Fahrrad über die Mille Avenue in Tempe, Arizona, als das Uber-Auto sie traf.

Werbung

Das von der Polizei veröffentlichte Video des Vorfalls finden Sie hier :

Infolgedessen hat Uber eine Richtlinie verabschiedet, die sicherstellt, dass menschliche Fahrer in seine Autos einbezogen werden. Die Geschichte wurde hier berichtet : Uber bringt selbstfahrende Autos wieder an die Arbeit, aber mit menschlichen Fahrern .

Dies ist eine Möglichkeit für Uber, das Problem zu umgehen, mit dem wir konfrontiert werden müssen, wenn vollständig autonome Autos zur Norm werden: wie man sie so programmiert, dass sie den Instinkt zur Erhaltung des menschlichen Lebens einbeziehen.

Programmieren von KI mit Sorge um Ethik

Wie wir in einem anderen Artikel gesehen haben Unsere schöne neue Welt: Warum der Fortschritt der KI ethische Bedenken aufwirft , mit dem große Kraft der KI Es ist eine große Verantwortung, sicherzustellen, dass die Technologie die Situation im Namen des Fortschritts nicht verschlimmert. Das Studium der Ethik für KI hat die Aufmerksamkeit von Menschen auf sich gezogen, die darüber nachdenken, was vor der Implementierung automatisierter Lösungen getan werden muss.

Werbung

Einer dieser Leute ist Paul Thagard, Ph.D., ein kanadischer Philosoph und Kognitionswissenschaftler, hat einige der Probleme angesprochen, mit denen wir uns jetzt in Bezug auf die Programmierung von Ethik in KI in Aufbau ethischer künstlicher Intelligenz .

Er wirft die folgenden 3 Hindernisse auf :

  1. Ethische Theorien sind sehr kontrovers. Einige Leute bevorzugen ethische Prinzipien, die von religiös Texte wie die Bibel oder der Koran. Philosophen streiten darüber, ob Ethik auf Rechten und Pflichten, auf dem größten Wohl für die größte Anzahl von Menschen oder auf virtuosem Handeln beruhen sollte.
  2. Ethisches Handeln erfordert die Befriedigung moralischer Werte, aber es gibt keine Einigung darüber, welche Werte angemessen sind oder sogar welche Werte. Ohne eine Darstellung der angemessenen Werte, die Menschen verwenden, wenn sie ethisch handeln, ist es unmöglich, die Werte der KI in Einklang zu bringenSysteme mit denen des Menschen.
  3. Um ein KI-System aufzubauen, das sich ethisch verhält, müssen Vorstellungen über Werte und richtig und falsch so präzise gemacht werden, dass sie in Algorithmen implementiert werden können, aber Präzision und Algorithmen fehlen in aktuellen ethischen Überlegungen schmerzlich.

Thagard bietet einen Ansatz, um diese Herausforderungen zu bewältigen, sagt er und verweist auf sein Buch. Naturphilosophie: Vom sozialen Gehirn zum Wissen, zur Realität, zur Moral und zur Schönheit . Im Verlauf des Artikels bietet er jedoch keine Lösung an, die sich speziell mit der Programmierung selbstfahrender Autos befasst.

Selbstfahrende Autos und das Trolley-Problem

Im Idealfall vermeiden Fahrer es, irgendetwas oder irgendjemanden zu treffen. Es ist jedoch möglich, sich in einer Situation zu befinden, in der es unmöglich ist, eine Kollision zu vermeiden, und die einzige Wahl ist, welche Person oder Personen getroffen werden sollen.

Werbung

Dieses ethische Dilemma ist das sogenannte Wagenproblem der wie der Wagen selbst über ein Jahrhundert zurückreicht. Er wird im Allgemeinen wie folgt dargestellt :

Sie sehen einen Ausreißer Wagen bewegt sich auf fünf gefesselte oder anderweitig arbeitsunfähige Personen zu, die auf den Gleisen liegen. Sie stehen neben einem Hebel, der a steuert. Schalter . Wenn Sie den Hebel ziehen, wird der Wagen auf eine Seitenschiene umgeleitet und die fünf Personen auf der Hauptschiene werden gerettet. Auf der Seitenschiene liegt jedoch eine einzelne Person.

Sie haben zwei Möglichkeiten :

  1. Tun Sie nichts und lassen Sie den Wagen die fünf Personen auf der Hauptstrecke töten;
  2. Ziehen Sie den Hebel und lenken Sie den Wagen auf die Seitenschiene, wo eine Person getötet wird.

Natürlich gibt es hier keine wirklich gute Wahl. Die Frage ist, welche die geringere von zwei schlechten Optionen ist. Es war genau diese Art von Dilemma, das der Grüne Kobold Spiderman im Film von 2002 vorstellte und versuchte, ihn dazu zu zwingenwähle zwischen der Rettung einer Seilbahn voller Kinder oder der Frau, die er liebt :

Als Superheld konnte Spiderman seine Web-Spinning-Fähigkeiten und seine Stärke einsetzen, um beides zu retten. Aber manchmal müssen sogar Superhelden eine tragische Entscheidung treffen, wie es im Film von 2008 der Fall war. Der dunkle Ritter in dem Batman die Frau, die er liebte, in dem explodierenden Gebäude zurücklassen wollte.

Selbst diejenigen mit überlegenen Fähigkeiten können nicht immer alle retten, und die gleiche Situation kann für AI-fähige Autos gelten.

Die Frage ist dann: Welchen Ethikkodex wenden wir an, um sie so zu programmieren, dass sie solche Entscheidungen treffen?

Was soll das selbstfahrende Auto tun?

MIT Technology Review machte auf einige Forscher aufmerksam, die vor einigen Jahren an der Formulierung der Antworten in arbeiteten. Wie Sie selbstfahrenden Autos helfen können, ethische Entscheidungen zu treffen . Unter den Forschern auf diesem Gebiet befindet sich Chris Gerdes, ein Professor an der Stanford University, der sich mit "den ethischen Dilemmata befasst hat, die auftreten können, wenn das Selbstfahren von Fahrzeugen in der realen Welt eingesetzt wird".

Er bot eine einfachere Wahl an: den Umgang mit einem Kind, das auf die Straße rennt, wodurch das Auto gezwungen wird, etwas zu treffen, es jedoch zwischen dem Kind und einem Van auf der Straße wählen kann. Für einen Menschen sollte das ein Nein sein.Denken Sie daran, dass der Schutz des Kindes wichtiger ist als der Schutz des Lieferwagens oder des autonomen Autos selbst.

Aber was wäre das AI denken Sie nach? Und was ist mit den Passagieren im Fahrzeug, die sich bei einer solchen Kollision möglicherweise verletzen?

Gerdes beobachtet, " Dies sind sehr schwierige Entscheidungen, denen sich diejenigen, die Steuerungsalgorithmen für automatisierte Fahrzeuge entwickeln, täglich gegenübersehen. “

Der Artikel zitiert auch Adriano Alessandrini, einen Forscher, der an automatisierten Fahrzeugen an der Universität von Roma La Sapienza in Italien arbeitet und als Leiter des italienischen Teils der in Europa ansässigen Person tätig war. CityMobil2 Projekt zum Testen eines automatisierten Transitfahrzeugs. Siehe das Video dazu unten :

Sie hat das Trolley-Problem für Fahrer und selbstfahrende Autos in dieser Zusammenfassung zusammengefasst :

„Möglicherweise sehen Sie etwas auf Ihrem Weg, und Sie beschließen, die Spur zu wechseln. Dabei befindet sich etwas anderes auf dieser Spur. Dies ist also ein ethisches Dilemma.“

Ein weiterer prominenter Experte auf diesem Gebiet ist Patrick Lin, Professor für Philosophie an der Cal Poly, mit dem Geerdes zusammengearbeitet hat. Lins TED-Ed befasst sich mit den ethischen Problemen bei der Programmierung selbstfahrender Autos, um Entscheidungen über Leben oder Tod zu treffenals Gedankenexperiment in diesem Video :

Wenn wir diese Box im Auto im manuellen Modus fahren würden, würde jede Art und Weise, wie wir reagieren würden, als genau das verstanden werden, eine Reaktion, keine absichtliche Entscheidung ", sagt Lin im Video. Dementsprechend würde es so verstanden werden"eine instinktiv panische Bewegung ohne Voraussicht oder Bosheit."

Die sehr reale Möglichkeit, dass Todesfälle nicht auf eine Fehlfunktion zurückzuführen sind, sondern darauf, dass die Autos ihrer Programmierung folgen, macht es so wichtig, vorauszudenken, wie mit dem umzugehen ist, was Lin als "eine Art Zielalgorithmus" bezeichnet."

Er erklärt, dass solche Programme "einen bestimmten Objekttyp, gegen den sie stoßen, systematisch bevorzugen oder diskriminieren" würden.

Infolgedessen leiden diejenigen in "den Zielfahrzeugen ohne eigenes Verschulden unter den negativen Folgen dieses Algorithmus."

Er bietet keine Lösung für dieses Problem an, aber es ist eine Warnung, dass wir darüber nachdenken müssen, wie wir damit umgehen werden :

"Das Erkennen dieser moralischen Haarnadelkurven hilft uns, den ungewohnten Weg der Technologieethik zu manövrieren und uns sicher und gewissenhaft in unsere schöne neue Zukunft zu begeben."

Dies wird wahrscheinlich eine noch größere Herausforderung für die Navigation darstellen als die Straßen, auf denen die autonomen Fahrzeuge fahren müssen.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.