Werbung

Schwer fassbare Ethik: Roboterkrieg und autonome Waffen

Während die Militärs der Welt sich beeilen, das KI-Rennen zu gewinnen, erheben Organisationen ihre Stimmen in der Opposition.

Während der Patrouille in den Bergen Afghanistans im Jahr 2004 entdeckte der ehemalige Ranger der US-Armee, Paul Scharre, ein etwa fünfjähriges Mädchen, das neugierig in der Nähe seines Scharfschützen-Teams inmitten einer kleinen Ziegenherde ging.

Es wurde schnell klar, dass sie den Taliban in einem nahe gelegenen Dorf ihre Position meldete. Rechtlich, wie Scharre in betont Armee der Nichts: Autonome Waffen und die Zukunft des Krieges , ihr Verhalten war das eines feindlichen Kämpfers. Rechtlich gesehen wäre es im Rahmen der Kriegsgesetze gewesen, sie zu töten. Ethisch - moralisch - war es falsch, und Scharre und sein Team wussten das. Das Mädchen ging weiterund ihre Mission ging weiter.

Die Fragen, die er sich später zu dieser Mission stellen würde, waren beunruhigend: Was wäre, wenn eine autonome Waffe in diese Situation gebracht worden wäre? Könnte künstliche Intelligenz KI jemals das Gesetzliche vom Moralischen unterscheiden?

Ein unbemanntes Oberflächenfahrzeug, das während einer Demonstration in der Naval Station Norfolk auf dem Elizabeth River manövriert. Quelle : Rebekah M. Rinckey / DoD

In den letzten Jahren ist die Debatte über den ethischen Umgang mit tödlichen autonomen Waffensystemen LAWS in den Vordergrund gerückt. Wie Militärs auf der ganzen Welt in Richtung einer KI-Zukunft marschieren, wie werden Gesellschaften Maschinen mit den Einsichten programmieren, die für die Komplexität erforderlich sind?Entscheidungen über Leben oder Tod unter unbeständigen Umständen? Ist eine ethische Kriegsführung überhaupt möglich?

Scharre präsentiert ein ernüchterndes Beispiel dafür, wie es aussehen könnte, wenn die militärische KI-Frage falsch gestellt wird. Diese Frage ist ebenso wichtig wie dringend. tödliche KI-Systeme ist angesichts des Tempos des technologischen Fortschritts nicht gerade neu, Bedenken, die vor einem Jahrzehnt theoretisch waren, werden schnell sehr real. Viele fragen sich jetzt, ob die Gesellschaft ihre Ethik entsprechend und schnell genug skalieren kann, um zu verhindern, dass Ängste über diese Technologien zu einem werdenWirklichkeit.

Werbung

Ebenso müssen die Vorzüge der Roboterkriegsführung ernsthaft in Betracht gezogen werden. Technologien dieser Art können Entscheidungen auf dem Schlachtfeld mit mathematischer Geschwindigkeit und Genauigkeit treffen. Zeit sparen bedeutet oft, Leben zu retten. Maschinelles „Denken“ ändert sich nicht durch Müdigkeit oder Trauma, Phänomenedas betrifft routinemäßig Soldaten vor Ort, und diese Beständigkeit könnte Konflikte eher früher als später beenden.

Roboterschaltungen und Sensoren sind nicht an die sich verändernden Subjektivitäten des Geistes gebunden.

KI-Forscher, Technologieführer und politische Entscheidungsträger sind sich einig, dass autonome Waffen rasant voranschreiten. Trotzdem beginnen die Länder und Organisationen, die diese Technologie entwickeln, gerade erst, Ideen darüber zu artikulieren, wie Ethik die Kriege der nahen Zukunft beeinflussen wird.

Zum Beispiel die US-Verteidigungsministerium Richtlinien zu GESETZEN besagen, dass die Technologie „den Bedienern ein angemessenes Maß an menschlichem Urteilsvermögen über die Anwendung von Gewalt ermöglichen muss“. Institut der Vereinten Nationen für Abrüstungsforschung erfordert ein gewisses Maß an „sinnvoller menschlicher Kontrolle“.

Werbung

Was diese Sätze in der Praxis bedeuten, bleibt zweideutig.

Wenn man das Thema aus der Ferne betrachtet, zeigt sich eine Dynamik verschiedener Kräfte: die Organisationen, die die Entwicklung von GESETZEN vorantreiben, die Gremien, die zur Vorsicht drängen und dabei den Dialog fördern, und diejenigen, die sich von Anfang an gegen diese Idee aussprechen.

Liebe auf den ersten Stromkreis

Kampf-KI könnte möglicherweise eine große Menge ethischen Gutes auf dem Schlachtfeld bewirken. Einschreiben The Military Review, Amitai Etzioni, Professor für Soziologie an der George Washington University in Washington DC, und Oren Etzioni, CEO des Allen Institute for AI, stellen fest, dass diese Technologie tatsächlich der bessere Weg sein könnte zukünftige ethische Kriegsführung .

Für den Anfang würde das Entfernen von Soldaten vom Schlachtfeld und das Ersetzen durch Roboterwaffen per Definition Leben retten. Autonome Systeme wären auch zuverlässiger als Menschen, wenn es darum geht, ethische Verstöße und Kriegsverbrechen zu identifizieren und zu melden. Soldaten, deren Gehirn mit Stress und Stress überlastet istTrauma neigen dazu, Fehler zu machen. Roboterschaltungen und Sensoren sind nicht an die sich verändernden Subjektivitäten des Geistes gebunden.

Werbung
Ein halbautonomes UGV am nordöstlichen Kostas-Forschungsinstitut für innere Sicherheit. Quelle: Todd Maki / US Air Force

Während es schwierig ist, genau zu sagen, welche Motivationen den Trend antreiben, scheinen Militärbeamte auf der ganzen Welt bestrebt zu sein, die KI-Kriegstechnologie so weit wie möglich zu kultivieren. In jüngster Zeit Interview mit Die Washington Post Generalleutnant Jack Shanahan, der erste Direktor des Joint Artificial Intelligence Center des Pentagon, sagte: „Wir werden [diese Waffen entwickeln]. Wir werden es absichtlich tun.“

Die Nationale Sicherheitskommission für künstliche Intelligenz unter dem Vorsitz des ehemaligen Google-CEO Eric Schmidt bekräftigt diese Haltung in ihrem 756-seitigen Abschlussbericht vom März 2021. Das Dokument ist eine ebenso umfassende Bewertung der Position der Vereinigten Staaten im KI-Rennen wiealles, was existiert, drängt die DoD zur Aufnahme von AI in allen Aspekten seiner Geschäftstätigkeit bis 2025. Vielleicht nicht überraschend, bezieht sich ein großer Teil des Berichts auf die zunehmenden KI-Fähigkeiten von Ländern wie China und Russland.

Werbung

Es ist nicht schwer zu verstehen, warum. Laut einem Bericht des Center for a New American Security aus dem Jahr 2019 Chinesisches strategisches Denken in Bezug auf KI politische Aushängeschilder und Technologieführer im Land sehen GESETZE als unvermeidlich an. China exportiert bereits Überwachungsplattformen sowie unbemannte Luftfahrzeuge UAVs, und diese Bemühungen werden sich wahrscheinlich in den kommenden Jahren ausweiten und verstärken.

Russland hat auch nicht die Absicht, übertroffen zu werden. Das Stockholmer Internationale Friedensforschungsinstitut behauptet, die Tests des Landes von unbemannte Unterwasserfahrzeuge UUVs, die möglicherweise Atomsprengköpfe liefern können, waren bereits erfolgreich. Internationales Institut für strategische Studien unterstützt diese Behauptung und fügt hinzu, dass „bis zu 32 Poseidon-Systeme an Bord von mindestens vier U-Booten eingesetzt werden sollen, obwohl sie möglicherweise erst 2027 einsatzbereit sind.“

Werbung

Hochentwickelte automatisierte Waffen sind möglicherweise kein entfernter Traum. Die New York Times Großbritannien hatte bereits Basic verwendet KI-Technologie in ihren Brimstone-Raketen 2011 in Libyen. Die Programmierung der Rakete ist relativ einfach, sodass zwischen verschiedenen Fahrzeugtypen wie Bussen und Panzern unterschieden werden kann, um die Opfer unter der Zivilbevölkerung zu minimieren.

Springen Sie vorwärts bis 2021 und wir sehen Militärs, die hoch entwickelte autonome Drohnenschwärme testen. Die Modern War Institute in Westpoint gibt an, dass "jedes Bein des US-Militärs Drohnenschwärme entwickelt" und fügt hinzu, dass "Russland, China, Südkorea, das Vereinigte Königreich und andere auch Schwärme entwickeln". Letztes Jahr Forbes berichtet über die Möglichkeit, dass Schwärme mit genügend Feuerkraft möglicherweise hineinfallen Massenvernichtungswaffen Gebiet Massenvernichtungswaffen.

Dröhnen über Überlegungen

Schwärme autonomer Maschinen mit Fähigkeiten auf Massenvernichtungswaffen-Ebene sind für einige eine beunruhigende Aussicht, und aus einer Vielzahl von politischen und sozialen Bereichen kommen Stimmen der Vorsicht hervor. Eine solche Stimme ist Paul Scharre, jetzt Senior Fellow des CNAS, der mit führenden Vertretern der US-Regierung und des Privatsektors in Verbindung stehtzu Fragen der nationalen Verteidigungspolitik.

Werbung

Er ist auch derjenige, der das Team geleitet hat, das vor über einem Jahrzehnt die DoD-Richtlinie zu GESETZEN verfasst und einen unverbindlichen ethischen Kompass für militärische Programme festgelegt hat.

Soldaten nehmen an einer Übung auf Fort AP Hill, Virginia, teil. Quelle: Pfc. Gabriel Silva / US Army

Vortrag an der Stanford University Anfang 2019 betonte Scharre die Notwendigkeit einer interdisziplinären Debatte und sagte: „Wir brauchen nicht nur Technologen, sondern auch Anwälte, Ethiker und Sozialwissenschaftler, Soziologen, um ein Teil davon zu sein.“

Solche Handlungsaufforderungen haben möglicherweise Resonanz gefunden. Im Oktober 2019 veröffentlichte das Defense Innovation Board DIB eine Liste von fünf KI-Ethikprinzipien um DoD-Beamte bei der Ausrichtung ihrer Waffenprogramme weiter zu unterstützen. Die DIB fungiert als unabhängige Beratergruppe, die sich aus Zahlen von Google, Microsoft, mehreren Universitäten wie dem Massachusetts Institute of Technology und Carnegie Mellon und Persönlichkeiten der öffentlichen Wissenschaft wie dem Astrophysiker Neil zusammensetztdeGrasse Tyson. Es wurde 2016 eingerichtet, um dem US-Militär die technologische Innovation und die besten Praktiken des Silicon Valley näher zu bringen und dem US-Verteidigungsminister unabhängige Empfehlungen zu geben.

Tech-Unternehmen, die in KI investieren, haben eine komplizierte Beziehung zu LAWS. Im Jahr 2018 versprach Google, dass dies nicht mit Unternehmen funktionieren würde, die AI verwenden. Technologie für die Waffenentwicklung aus ethischen Gründen. Laut Forbes Die Muttergesellschaft von Google, Alphabet, arbeitet jetzt jedoch mit Unternehmen zusammen, die sich mit autonomen Robotikprojekten befassen, die „Verletzungen direkt erleichtern“ könnten.

Der Geist in der Maschine

Für einige das Konzept von ethische Waffen sind ein Oxymoron und einfach ihre Entwicklung zu regulieren ist nicht gut genug. Die Fragen, die sie aufwerfen, sind ergreifend: Ist es ein kluger Weg, die menschliche Handlungsfähigkeit in gewissem Maße aus Entscheidungen zu entfernen, bei denen das Leben von Menschen beendet wird? Wegen der Komplexität menschlicher Wertekönnen in autonomen Systemen nicht angemessen vertreten sein, können wir solche Entscheidungen gewissenhaft an Roboter delegieren?

„Wenn Sie sich die verschiedenen Anliegen ansehen, ist jedes einzelne ein Grund, sich zu fragen, warum wir uns auf den Weg zu autonomen Waffen machen wollen.“

Eine Umfrage des unabhängigen Marktforschungsunternehmens IPSOS aus dem Jahr 2017 unter 25 Ländern ergab, dass die Mehrheit der Befragten 56 Prozent gegen den Einsatz autonomer Waffen . Vor der UN-Konvention über bestimmte konventionelle Waffen im Jahr 2019, Länder wie Japan befürwortet strengere GESETZESVORSCHRIFTEN .

Eine der größeren Organisationen, die sich gegen GESETZE aussprach, war die Legislative der Europäischen Union, die im Januar 2021 ihre Richtlinien für den militärischen Einsatz von KI veröffentlicht hatte. In einer Pressemitteilung Vertreter des Europäischen Parlaments fordern ein Verbot der Technologie. Diese Position ähnelt den Ansichten der Kampagne gegen Killerroboter eine Koalition von Nichtregierungsorganisationen NRO, die daran arbeiten, ihre Entwicklung und Nutzung zu verhindern.

Diese Gruppe wird von Mary Wareham geleitet, der Leiterin der Waffenabteilung bei Human Rights Watch und Co-Preisträgerin des Friedensnobelpreises von 1997 für ihre Arbeit in der internationalen Kampagne zum Verbot von Landminen. In einem Interview mit Ethik in der Technik Im September 2020 sagte Wareham: „Wenn Sie sich die verschiedenen Anliegen ansehen, ist jedes einzelne ein Grund, sich zu fragen, warum wir den Weg zu autonomen Waffen beschreiten wollen.“

Trotz dieser Widerstände scheint die Welt mit dieser Technologie voranzukommen. Glücklicherweise finden Diskussionen über ethische Roboterkriegsführung auf der Weltbühne zunehmend Präsenz.

Ein autonomes Waffensystem der US-Armee fährt während eines Tests auf dem Yuma Proving Ground in Arizona über Wüstengelände. Quelle: Pvt. Osvaldo Fuentes / US Army

Während große internationale Mächte wie China beispielsweise weiterhin stark in GESETZE investieren, scheinen sie dies nicht blind zu tun. Im April 2020 stellte das Brookings Institute fest, dass Forscher und Militärwissenschaftler im Land beginnen, sich mit dem zu streiten. ethische Implikationen der KI .

Die USA widmen diesen Sorgen möglicherweise auch die gebührende Aufmerksamkeit. Der Abschlussbericht der NSCAI im Februar 2021 widmet sich ein ganzes Kapitel der Wahrung der bürgerlichen Freiheiten und Bürgerrechte im Zeitalter der autonomen Kriegsführung und gibt eine Reihe von Empfehlungen dazu, wie dies effektiv zu tun ist. Die Organisation argumentiert, dass der „Einsatz von KI durch Beamte vereinbar sein mussmit Prinzipien der begrenzten Regierung und der individuellen Freiheit [....] In einer demokratischen Gesellschaft muss jede Ermächtigung des Staates mit klugen Beschränkungen einhergehen, um diese Macht in den Augen seiner Bürger legitim zu machen. “

Das internationale Bewusstsein für ethische Technologie könnte tatsächlich wachsen. Im September 2020 war das Verteidigungsministerium Gastgeber des ersten Treffens der Partnerschaft für Verteidigung künstlicher Intelligenz, einer Koalition aus Australien, Kanada, Dänemark, Estland, Finnland, Frankreich, Israel, Japan.Norwegen, die Republik Korea, Schweden und das Vereinigte Königreich AIPD eine Erklärung veröffentlicht nachdem die Gruppe letztes Jahr zusammengetreten war und ihr Ziel definiert hatte, Nationen zu versammeln, um den verantwortungsvollen Umgang mit KI zu fördern und zu erleichtern.

Ein ausgewogener und realistischer Ansatz ist möglicherweise die beste Option für diejenigen, die sich Sorgen über diesen neuen technologischen Horizont machen. Organisationen und Einzelpersonen, die offen für Zusammenarbeit und den Aufbau von Beziehungen bleiben, sind wahrscheinlich entscheidend für die Schaffung einer sicheren ZukunftsvisionInterview mit dem Future of Life Institute , Paul Scharre bekräftigt diese Perspektive in einem ausgesprochen menschlichen Ton :

„Wenn Sie sich Sorgen über das zukünftige KI-Risiko machen, schaffen Sie das institutionelle Muskelgedächtnis unter den relevanten Akteuren der Gesellschaft - ob es sich um Nationalstaaten, KI-Wissenschaftler, Mitglieder der Zivilgesellschaft handelt, wer auch immer es istArt von Vereinbarung, es ist wahrscheinlich sehr wichtig, diese Muskeln heute zu trainieren. “

 Haftungsausschluss: Das Erscheinen visueller Informationen des US-Verteidigungsministeriums DoD impliziert oder stellt keine DoD-Bestätigung dar.
Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.