Werbung

Killerroboter können Massengräueltaten verursachen

Die Ära der maschinengetriebenen Kriegsführung mit Killerrobotern ist nicht zu weit in die Zukunft.

Roboter werden in Zukunft als Soldaten eingesetzt. chainatp / iStock

Roboter werden in Zukunft als Soldaten eingesetzt. Einige Roboter und Drohnen werden bereits vom Militär eingesetzt. Intelligente und autonome Roboter, die von Menschen zum Zielen und Töten programmiert wurden, könnten in Zukunft Verbrechen begehenist ein Vertrag über den verantwortungsvollen Umgang mit Robotik und künstlicher Intelligenz KI.

Die Technologie, mit der tödliche Roboter gebaut werden können, bedeutet nicht, dass wir sie einsetzen müssen. Wie Spidermans Onkel einmal sagte: "Mit großer Kraft geht große Verantwortung einher."

Experten für maschinelles Lernen und Militärtechnologie sagen, es wäre technologisch möglich, Roboter zu bauen, die Entscheidungen darüber treffen, wen sie anvisieren und töten sollen, ohne dass ein menschlicher Controller involviert ist. Weil Gesichtserkennungs- und Entscheidungsalgorithmen immer leistungsfähiger werden, um dies zu erreichenDie Erstellung solcher Robotertypen würde einfacher werden.

Die Risiken von Killerrobotern

Forscher in den Bereichen KI und öffentliche Ordnung versuchen zu behaupten, dass Killerroboter im wirklichen Leben eine schlechte Idee sind. Die Schaffung vollständig autonomer Waffen würde neue technische und moralische Dilemmata mit sich bringen.

Wissenschaftler und Aktivisten haben aus diesem Grund die Vereinten Nationen und die Regierungen der Welt dazu gedrängt, das Problem anzuerkennen und ein präventives Verbot in Betracht zu ziehen.

Kann KI als Waffe verwendet werden?

Die kurze Antwort lautet: Ja. Wie jede andere vorhandene Technologie kann künstliche Intelligenz zum Guten, aber auch zum Töten eingesetzt werden. Gesichtserkennung und Objekterkennung sind Technologien, die sich in den letzten Jahren verbessert haben. Wir könnten sagen, dass sie es sindsind viel genauer geworden, aber sie sind alles andere als perfekt.

Gesichtserkennung und Objekterkennung sind Fähigkeiten, die im Rahmen eines Toolkits für tödliche autonome Waffen LAWS wahrscheinlich unverzichtbar werden. Es ist jedoch auch ziemlich einfach, diese Technologien zu täuschen, wenn man sie wirklich täuschen möchte.

Werbung

Militärroboter : Gegenwart und Zukunft

Speziell für den Krieg entwickelte Drohne. Zukunft der Militärtechnologie Quelle : Devrimb / iStock

Militärroboter sind ferngesteuerte autonome Roboter oder Drohnen, die für militärische Anwendungen entwickelt wurden. Militärroboter können für Transport, Suche und Rettung sowie für Angriffe eingesetzt werden, um Menschen zu töten und sogar Städte zu zerstören.

Einige dieser Systeme werden derzeit eingesetzt, andere befinden sich in der Entwicklung. Einige Militärroboter werden unter strenger Geheimhaltung entwickelt, um zu verhindern, dass andere von ihrer Existenz erfahren.

Die Vereinigten Staaten fliegen bereits Militärdrohnen über Gebiete, in denen sich die USA im Krieg befinden oder an militärischen Operationen beteiligt sind. Bisher entscheiden menschliche Kontrolleure, wann diese Drohnen feuern werden.

Obwohl tödliche autonome Waffen LAWS noch nicht ganz existieren - oder wie wir denken -, gibt es tatsächlich die Technologie, die menschlichen Controller durch einen Algorithmus zu ersetzen, der die Entscheidung darüber trifft, wann und was geschossen werden soll. EinigeKI-Forscher glauben, dass GESETZE in Form kleiner Drohnen in weniger als zwei Jahren als Waffen eingesetzt werden könnten.

Werbung

Während die heutigen Drohnen ein Videofeedback an eine Militärbasis senden, wo ein menschlicher Soldat die Entscheidung trifft, ob die Drohne auf das Ziel schießen soll oder nicht, wird der Soldat mit einer vollständig autonomen Waffe diese Entscheidung nicht mehr treffen. Ein Algorithmuswürde stattdessen die Entscheidung treffen.

Tödliche autonome Waffen GESETZE: Sind Menschen gefährdet?

Die Ära der maschinengetriebenen Kriegsführung ist nicht zu weit in der Zukunft. Das Militär hat mit Robotern experimentiert, die Teil des Schlachtfelds sein und als Killerwaffen eingesetzt werden können. Die Kriege der Zukunft können dann mit mehr High-Tech infundiert werdenund weniger menschlich. Welche Konsequenzen für die Menschheit würde dies bringen?

Das Risiko tödlicher autonomer Waffen LAWS, auch als Killerroboter bekannt, ist real. Einige Forscher der Künstlichen Intelligenz KI haben viele Gründe, ihren Konsens zu unterstützen, dass die Welt die Entwicklung und den Einsatz tödlicher autonomer Waffen verbieten sollte.

Werbung
Quelle : Devrimb / iStock

Der Grund ist ziemlich einfach: Militärmächte könnten eine Armee von Killerrobotern recht billig in Massenproduktion herstellen. Die Menschheit könnte jedoch einen hohen Preis zahlen. Die Herstellung und Aktivierung von Killerrobotern würde die Wahrscheinlichkeit der Verbreitung und des Massenmordes erhöhen.

Killerroboter: Ein Mensch ist immer für alle Aktionen eines Roboters verantwortlich.

An dieser Stelle stellt sich die Frage, wer für die Aktionen eines Roboters verantwortlich sein soll und was. Roboethik sollte auf tödliche autonome Roboter angewendet werden? Während eines Krieges oder sogar während eines kleineren Konflikts können Dinge außer Kontrolle geraten. Sollten Killerroboter die totale Kontrolle übernehmen?

Roboter, die in einem Kriegskonflikt als mechanische Waffen eingesetzt werden sollen, die in künstliche Intelligenz und maschinelles Lernen eingebettet sind, sollten einen Ein- / Ausschalter haben.

Heute stellen Isaac Asimovs drei Gesetze der Robotik für Robotiker mehr Probleme und Konflikte dar als sie lösen.

Werbung

Robotiker, Philosophen und Ingenieure sehen eine anhaltende Debatte über Maschinenethik. Maschinenethik - oder Roboethik - ist ein praktischer Vorschlag, wie Roboter gleichzeitig konstruiert und ethische Sanktionen verhängt werden können.

Roboethics befasst sich mit dem Verhaltenskodex, den Roboterdesigner in die künstliche Intelligenz eines Roboters implementieren müssen. Wer oder was wird dafür verantwortlich gemacht, wenn oder wenn ein autonomes System fehlerhaft funktioniert oder Menschen schädigt?

Die drei Gesetze der Robotik: Sollten sie auf Killerroboter angewendet werden?

1942 führte der Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte die drei Gesetze der Robotik ein, die auch als Asimovs Gesetze bekannt sind. Umlauf Obwohl Asimovs drei Gesetze der Robotik Teil einer fiktiven Welt waren, könnten sie heute ein guter Ausgangspunkt für die Roboterprogrammierung sein.

Bevor und wenn Regierungen tödliche autonome Waffen einsetzen, sollten sie sicherstellen, dass sie verhindern können, dass Killerroboter, die in Kriegsgebieten eingesetzt werden sollen, selbst einen Krieg beginnen oder Massengräueltaten wie das Töten von Zivilisten verursachen.

Werbung

Einige mögen denken, dass die folgenden Gesetze der Robotik gegen das verstoßen, was ein Soldat tun sollte. Vielleicht ist das schließlich der Hauptpunkt. Mit anderen Worten, vielleicht sollte ein Mensch die schmutzige Arbeit nicht einer Maschine geben, die noch nicht dazu in der Lage istSituationen individualisieren und ein Urteil fällen.

  • Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt.

  • Ein Roboter muss die Anweisungen der Menschen befolgen, es sei denn, solche Anweisungen würden dem Ersten Gesetz widersprechen.

  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht.

Killerroboter stoppen

Es gibt eine Kampagne zu Killerroboter stoppen eine Koalition von Nichtregierungsorganisationen, die vorsorglich tödliche autonome Waffen LAWS verbieten wollen.

Der Generalsekretär der Vereinten Nationen UN hat die Staaten aufgefordert, rasch vorzugehen, um Bedenken hinsichtlich tödlicher autonomer Waffensysteme in seinem Jahr 2020 auszuräumen. Bericht über den Schutz der Zivilbevölkerung in bewaffneten Konflikten . Dies ist der erste Bericht der Vereinten Nationen zum Schutz der Zivilbevölkerung seit 2013, in dem allgemeine Bedenken hinsichtlich Killerrobotern hervorgehoben werden.

In der Bericht 2020 , Generalsekretär António Guterres stellt fest, dass „alle Seiten sich einig zu sein scheinen, dass zumindest die Beibehaltung der menschlichen Kontrolle oder des Urteils über die Anwendung von Gewalt notwendig ist.“ Er stellt außerdem fest, dass „eine wachsende Anzahl von Mitgliedstaatenhaben ein Verbot von GESETZEN gefordert. “Seit November 2018 hat der UN-Generalsekretär wiederholt seinen Wunsch nach einem neuen internationalen Vertrag zum Verbot von Killerrobotern zum Ausdruck gebracht.

Werbung

Die Kampagne zur Bekämpfung von Killerrobotern empfiehlt den Vereinten Nationen, die Staaten zu drängen, sich auf „Beschränkungen und Verpflichtungen zu einigen, die für die Autonomie von Waffen gelten sollten“. Die Staaten sollten jetzt Verhandlungen über einen neuen internationalen Vertrag aufnehmen, um vollständig autonome Waffen zu verbieten und gleichzeitig ihre Bedeutung zu erhaltenmenschliche Kontrolle über die Anwendung von Gewalt.

Wie man einen Roboter tötet

Höchstwahrscheinlich versenden tödliche autonome Roboterhersteller ihre Killerroboter mit einer Bedienungsanleitung, in der die Möglichkeit besteht, einen Sicherheitscode aus der Ferne einzufügen, um einen Killerroboter zu deaktivieren.

Wenn dies keine Option ist, besteht eine zuverlässige Möglichkeit, einen Roboter zu töten, darin, einen elektromagnetischen Impuls EMP zu verwenden, um einen hohen Strom zu induzieren, der die Schaltkreise des Roboters durchbrennt. Dies setzt natürlich voraus, dass dies der Killerroboter istnicht durch einen Faradayschen Käfig geschützt.

Verwandte Artikel :

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.