Werbung

MIT befasst sich eingehend mit der Ethik der Programmierung autonomer Fahrzeuge in einer globalen Umfrage

Mehr als 2 Millionen Menschen haben auf die Umfrage geantwortet, in der Fragen zum Trolley-Problem gestellt wurden.

Da sich die vollständig autonomen Autos, die auf die Straßen der Stadt fahren, der Realität nähern, tauchen immer wieder Fragen zur Ethik der Programmierung autonomer Maschinen auf. Eine neue Umfrage von MIT zeigt, dass es einige globale Trends zur Ethik autonomer Fahrzeuge sowie einige interessante lokale Unterschiede gibt.

An der Umfrage nahmen mehr als 2 Millionen Online-Teilnehmer aus über 200 Ländern teil, die alle den Klassiker aufnahmen. “ Wagenproblem. ”Das Trolley-Problem ist ein Szenario, das einen außer Kontrolle geratenen Trolley beschreibt, der auf eine Gruppe von Personen zusteuert, und Sie können einen Schalter ziehen, um den Trolley so umzuleiten, dass er mit nur einer Person kollidiert. Was würden Sie tun?

Trolley-Problem für autonome Fahrzeuge neu erfunden

Bei autonomen Fahrzeugen stellt sich die Frage, ob das Auto einer kleinen Anzahl von Umstehenden oder einer größeren Gruppe sowie anderen damit verbundenen Möglichkeiten ausweichen soll.

„Die Studie versucht im Grunde zu verstehen, auf welche moralischen Entscheidungen fahrerlose Autos möglicherweise zurückgreifen müssen“ sagt Edmond Awad, Postdoc am MIT Media Lab und Hauptautor eines neuen Papiers, in dem die Ergebnisse des Projekts dargelegt werden. „Wir wissen noch nicht, wie sie das tun sollen.“

Dennoch fügt Awad hinzu: „Wir haben festgestellt, dass es drei Elemente gibt, die die Menschen am meisten zu billigen scheinen.“ Fast allgemein ergab die Studie, dass die Menschen es vorzogen, das Leben von Menschen gegenüber Tieren, das Leben von vielen gegenüber wenigen und den Menschen zu verschonenLeben der Jungen über die Alten.

„Die Hauptpräferenzen waren bis zu einem gewissen Grad allgemein anerkannt“, Awad Notizen. "Aber das Ausmaß, in dem sie damit einverstanden sind oder nicht, variiert zwischen verschiedenen Gruppen oder Ländern."

Werbung

Voreingenommene Programmierung muss ernst genommen werden

Das Problem der voreingenommenen Programmierung ist immer wieder aufgetaucht, seit Algorithmen für alles verantwortlich sind, vom Tweeten bis zur Einstellung. Zum Beispiel Amazon hat ein AI-gestütztes Programm fallen lassen, das es war mit um neue Mitarbeiter einzustellen weil herausgefunden wurde, dass das Programm Männer für technische Berufe bevorzugt.

Fahrzeuge

Uber demonstriert sein erstes autonomes Auto

Das Programm, das Tausende und Abertausende von Lebensläufen las, hatte sich selbst beigebracht, Männer gegenüber Frauen zu bevorzugen, wahrscheinlich weil es mehr Lebensläufe von Männern gab, die den Kriterien entsprachen, nicht weil die Lebensläufe der Frauen nicht gut waren, es gab einfach weniger von ihnenIn ähnlicher Weise musste Microsoft seinen Chatbot Tay von Twitter entfernen, nachdem er bereits 24 Stunden nach seiner Veröffentlichung damit begonnen hatte, rassistische und bigotte Äußerungen zu twittern.

Beschrieben als Experiment zum "Gesprächsverständnis" Tay Es wurde erwartet, dass es klüger und gesprächiger wird, je mehr Gespräche es führt. Allerdings begannen Twitter-Nutzer, bei Tay abscheuliche Dinge zu twittern, und nun, Tay, da Roboter aus dem, was sie sahen, lernen und diese Gefühle zurück in die Welt senden.

Werbung

Keine dieser Geschichten erfordert das Läuten von Alarmglocken, vielmehr muss ein bewusstes Verständnis der Auswirkungen der Programmierung vorhanden sein und dass für alle Entscheidungstechnologien ein breites Verständnis erforderlich ist.

Via : MIT

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.