Werbung

Könnten autonome Roboter gefährlicher sein als Atomwaffen?

Ohne einen neuen Rechtsrahmen könnten sie gesellschaftliche Normen destabilisieren.

John F. Williams/Wikimedia Commons

Autonome Waffensysteme – allgemein als Killerroboter bekannt – können habenzum ersten Mal Menschen getötet letztes Jahr, laut einem kürzlich erschienenen Sicherheitsrat der Vereinten NationenBericht über den libyschen Bürgerkrieg. Die Geschichte könnte dies als Ausgangspunkt des nächsten großen Wettrüstens identifizieren, eines, das das Potenzial hat, das letzte der Menschheit zu sein.

Autonome Waffensysteme sind Roboter mit tödlichen Waffen, die unabhängig operieren und Ziele auswählen und angreifen können, ohne dass ein Mensch diese Entscheidungen beeinflusst. Militärs auf der ganzen Welt sind stark investieren in der autonomen Waffenforschung und -entwicklung. Die USA allein budgetiert 18 Milliarden US-Dollarfür autonome Waffen zwischen 2016 und 2020.

Inzwischen Menschenrechte und humanitäre Organisationen rennen um die Einführung von Vorschriften und Verboten für die Entwicklung solcher Waffen. Ohne solche Kontrollen warnen außenpolitische Experten, dass disruptive autonome Waffentechnologien die aktuellen Nuklearstrategien gefährlich destabilisieren werden, weil sie die Wahrnehmung strategischer Dominanz radikal verändern könnten.erhöht das Risiko von Präventivangriffen, und weil sie werden könntenkombiniert mit chemischen, biologischen, radiologischen und nuklearen Waffen selbst.

Als Spezialist für Menschenrechte mit Fokus auf die Waffen künstlicher Intelligenz, ich finde, dass autonome Waffen das instabile Gleichgewicht und die fragmentierten Sicherheitsvorkehrungen der nuklearen Welt machen – zum Beispiel die minimalen Beschränkungen des US-PräsidentenBefugnis, einen Streik zu starten – unsicherer und fragmentierter.

Tödliche Fehler und Blackboxes

Ich sehe vier Hauptgefahren bei autonomen Waffen. Die erste ist das Problem der Fehlidentifikation. Können autonome Waffen bei der Auswahl eines Ziels zwischen feindlichen Soldaten und 12-Jährigen unterscheiden, die mit Spielzeugwaffen spielen? Zwischen Zivilisten, die vor einem Konflikt fliehenOrt und Aufständische, die einen taktischen Rückzug machen?

Das Problem hier ist nicht, dass Maschinen solche Fehler machen und Menschen nicht. Der Unterschied zwischen menschlichen Fehlern und algorithmischen Fehlern ist wie der Unterschied zwischen dem Versenden eines Briefes und dem Tweeten. Umfang, Umfang und Geschwindigkeit von Killerrobotersystemen– beherrscht von einem Zielalgorithmus, der auf einem ganzen Kontinent eingesetzt wird – könnte Fehlidentifikationen durch einzelne Menschen wie ein neuer machenUS-Drohnenangriff in Afghanistan scheinen im Vergleich nur Rundungsfehler zu sein.

Werbung

Autonomer Waffenexperte Paul Scharre verwendet die Metapher von die außer Kontrolle geratene Waffe um den Unterschied zu erklären. Eine außer Kontrolle geratene Waffe ist ein defektes Maschinengewehr, das nach dem Loslassen eines Abzugs weiter feuert. Die Waffe feuert weiter, bis die Munition aufgebraucht ist, weil die Waffe sozusagen nicht weiß, dass sie einen Fehler macht. Runaway-Geschütze sind extrem gefährlich, aber glücklicherweise haben sie menschliche Operatoren, die die Munitionsverbindung unterbrechen oder versuchen können, die Waffe in eine sichere Richtung zu richten. Autonome Waffen haben per Definition keinen solchen Schutz.

Wichtig ist, dass die bewaffnete KI nicht einmal defekt sein muss, um den Runaway-Gun-Effekt zu erzeugen. Wie mehrere Studien zu algorithmischen Fehlern in allen Branchen gezeigt haben, können die allerbesten Algorithmen – die wie geplant funktionieren – dies können.intern korrekte Ergebnisse generieren, die dennoch schreckliche Fehler verbreiten schnell über Populationen hinweg.

Werbung

Zum Beispiel wurde ein neuronales Netz für den Einsatz in Pittsburgh-Krankenhäusern identifiziertAsthma als Risikominderung bei Lungenentzündung; Bilderkennungssoftware von Google verwendet Afroamerikaner als Gorillas identifiziert; und ein Machine-Learning-Tool, das von Amazon verwendet wird, um Stellenbewerber einzustufenFrauen werden systematisch negative Werte zugewiesen.

Das Problem ist nicht nur, dass KI-Systeme Fehler in großen Mengen machen. Wenn sie Fehler machen, wissen ihre Hersteller oft nicht, warum sie es getan haben und daher nicht, wie sie sie korrigieren können. Die Blackbox-Problem von KI macht es fast unmöglich, sich eine moralisch verantwortungsvolle Entwicklung autonomer Waffensysteme vorzustellen.

Die Proliferationsprobleme

Die nächsten beiden Gefahren sind die Probleme der Low-End- und High-End-Proliferation. Beginnen wir mit dem unteren Ende. Die Militärs, die jetzt autonome Waffen entwickeln, gehen davon aus, dass sie dazu in der Lage sein werden.Einschränkung und Kontrolle des Einsatzes autonomer Waffen. Aber wenn die Geschichte der Waffentechnik die Welt etwas gelehrt hat, dann dies: Waffen verbreiten sich.

Werbung

Der Marktdruck könnte zur Schaffung und zum weit verbreiteten Verkauf von dem führen, was man als autonomes Waffenäquivalent der bezeichnen kann.Kalaschnikow-Sturmgewehr: Killerroboter, die billig, effektiv und fast unmöglich einzudämmen sind, da sie auf der ganzen Welt zirkulieren. Autonome „Kalashnikov“-Waffen könnten in die Hände von Menschen gelangen, die sich der Kontrolle der Regierung entziehen, einschließlich internationaler und einheimischer Terroristen.

High-End-Proliferation ist jedoch genauso schlimm. Nationen könnten konkurrieren, um immer verheerendere Versionen autonomer Waffen zu entwickeln, einschließlich solcher, die dazu in der Lage sind.Montage chemischer, biologischer, radiologischer und nuklearer Waffen. Die moralischen Gefahren einer eskalierenden Waffentödlichkeit würden durch den eskalierenden Waffengebrauch verstärkt.

Autonome High-End-Waffen werden wahrscheinlich zu häufigeren Kriegen führen, weil sie zwei der primären Kräfte, die in der Vergangenheit Kriege verhindert und verkürzt haben, verringern werden: Sorge um die Zivilbevölkerung im Ausland und Sorge um die eigenen Soldaten. Die Waffen werden wahrscheinlich ausgerüstet seinmit teuer ethische Gouverneure entworfen, um Kollateralschäden zu minimieren, unter Verwendung dessen, was die UN-Sonderberichterstatterin Agnes Callamard genannt hat„Mythos eines chirurgischen Schlags“ um moralische Proteste zu unterdrücken. Autonome Waffen werden auch die Notwendigkeit und das Risiko für die eigenen Soldaten reduzieren und die Situation dramatisch verändernKosten-Nutzen-Analyse die Nationen durchmachen, während sie Kriege beginnen und aufrechterhalten.

Werbung

Asymmetrische Kriege – d. h. Kriege, die auf dem Boden von Nationen geführt werden, denen es an konkurrierender Technologie mangelt – werden wahrscheinlich häufiger auftreten. Denken Sie an die globale Instabilität, die durch sowjetische und US-Militärinterventionen während des Kalten Krieges verursacht wurde, vom ersten Stellvertreterkrieg bis zumdas Rückschlag Heute auf der ganzen Welt erfahren. Multiplizieren Sie das mit jedem Land, das derzeit nach autonomen High-End-Waffen strebt.

Untergrabung der Kriegsgesetze

Schließlich werden autonome Waffen die letzte Notlösung der Menschheit gegen Kriegsverbrechen und Gräueltaten untergraben: die internationalen Kriegsgesetze. Diese Gesetze, die in Verträgen kodifiziert sind, die bis ins Jahr 1864 zurückreichenGenfer Konvention, sind die internationale dünne blaue Linie, die ehrenvollen Krieg von Massakern trennt. Sie basieren auf der Idee, dass Menschen auch in Kriegszeiten für ihre Handlungen zur Rechenschaft gezogen werden können, dass das Recht, andere Soldaten während eines Kampfes zu töten, nicht das Recht aufZivilisten ermorden. Ein prominentes Beispiel für jemanden, der zur Rechenschaft gezogen wird, ist Slobodan Milosevic, ehemaliger Präsident der Bundesrepublik Jugoslawien, der vom Internationalen Strafgerichtshof der Vereinten Nationen für das ehemalige Jugoslawien wegen Anklage gegen Menschlichkeit und Kriegsverbrechen angeklagt wurde.

Werbung

Aber wie können autonome Waffen zur Rechenschaft gezogen werden? Wer ist schuld an einem Roboter, der Kriegsverbrechen begeht? Wer würde vor Gericht gestellt? Die Waffe? Der Soldat? Die Kommandeure des Soldaten? Der Konzern, der die Waffe hergestellt hat? Nichtregierungsorganisationen undVölkerrechtsexperten befürchten, dass autonome Waffen zu einer ernsthaften Rechenschaftspflichtlücke.

Um einen Soldaten zu haltenstrafrechtlich verantwortlich für den Einsatz einer autonomen Waffe, die Kriegsverbrechen begeht, müssten die Staatsanwälte sowohl actus reus als auch mens rea beweisen, lateinische Begriffe, die eine schuldige Tat und einen schuldigen Geist beschreiben. Dies wäre rechtlich schwierig und möglicherweise ungerecht alseine Frage der Moral, da autonome Waffen von Natur aus unberechenbar sind. Ich glaube, die Distanz zwischen dem Soldaten und den unabhängigen Entscheidungen, die autonome Waffen in sich schnell entwickelnden Umgebungen treffen, ist einfach zu groß.

Werbung

Die rechtliche und moralische Herausforderung wird nicht dadurch erleichtert, dass die Schuld in der Befehlskette nach oben oder zurück auf den Produktionsort verschoben wird. In einer Welt ohne Vorschriften, die vorschreibensinnvolle menschliche Kontrolle von autonomen Waffen wird es Kriegsverbrechen geben, ohne dass Kriegsverbrecher zur Rechenschaft gezogen werden müssen. Die Struktur der Kriegsgesetze wird zusammen mit ihrem abschreckenden Wert erheblich geschwächt.

Ein neues globales Wettrüsten

Stellen Sie sich eine Welt vor, in der Militärs, aufständische Gruppen sowie internationale und einheimische Terroristen theoretisch unbegrenzte tödliche Gewalt mit theoretisch null Risiko zu Zeiten und an Orten ihrer Wahl einsetzen können, ohne dass daraus eine rechtliche Verantwortlichkeit entsteht. Es ist eine Welt, in der die Art von unvermeidlichen algorithmische FehlerDiese Plage kann selbst Tech-Giganten wie Amazon und Google jetzt zur Vernichtung ganzer Städte führen.

Meiner Ansicht nach sollte die Welt die katastrophalen Fehler des nuklearen Wettrüstens nicht wiederholen. Sie sollte nicht in Dystopie schlafwandeln.

[Holen Sie sich unsere besten Wissenschafts-, Gesundheits- und Technologiegeschichten. Melden Sie sich für den Wissenschafts-Newsletter von The Conversation an.]

James Dawes, Professor für Englisch, Macalester College

Dieser Artikel wurde neu veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.