Werbung

Ethik der KI: Nutzen und Risiken künstlicher Intelligenzsysteme

Das Verständnis der Vorteile, Risiken, Ethik und Sicherheit der künstlichen Intelligenz ist der Schlüssel zur Entwicklung besserer KI-Systeme.

Evolution der künstlichen Intelligenz mit digitalem Bewusstsein kentoh / iStock

Die Konvergenz der Verfügbarkeit einer großen Menge von Big Data, die Geschwindigkeit und Ausdehnung von Cloud-Computing-Plattformen und die Weiterentwicklung anspruchsvoller maschinelles Lernen Algorithmen haben eine Reihe von Innovationen hervorgebracht in Künstliche Intelligenz AI.

Theoretisch führen die positiven Auswirkungen von KI-Systemen auf die Regierung zu einer Verbesserung der Gesundheitsdienste, der Bildung und des Transports in Smart Cities . Andere Anwendungen, die von der Implementierung von KI-Systemen im öffentlichen Sektor profitieren, sind: Lebensmittelversorgungskette , Energie- und Umweltmanagement.

In der Tat sind die Vorteile, die KI-Systeme für die Gesellschaft bringen, ebenso groß wie die Herausforderungen und Sorgen. Die sich entwickelnde Lernkurve für Technologien impliziert Fehlkalkulationen und Fehler, die zu unerwarteten schädlichen Auswirkungen führen.

Wir leben in Zeiten, in denen es von größter Bedeutung ist, dass die Möglichkeit eines Schadens in KI-Systemen schnell erkannt und angegangen werden muss. Um die potenziellen Risiken zu identifizieren, die durch KI-Systeme verursacht werden, muss ein Plan mit Maßnahmen zur Bekämpfung dieser Risiken verabschiedet werdenschnellstmöglich.

Organisationen des öffentlichen Sektors können daher zukünftige potenzielle Schäden antizipieren und verhindern, indem sie eine Kultur verantwortungsbewusster Innovation schaffen, um ethische, faire und sichere KI-Systeme zu entwickeln und umzusetzen.

Allerdings sollten alle an der Konzeption, Produktion und Bereitstellung von KI-Projekten Beteiligten, darunter Datenwissenschaftler, Dateningenieure, Domänenexperten, Bereitstellungsmanager und Abteilungsleiter, KI-Ethik und -Sicherheit als Priorität betrachten.

Ethik und Roboethik der künstlichen Intelligenz

Die Ethik der künstlichen Intelligenz oder die KI-Ethik umfasst eine Reihe von Werten, Prinzipien und Techniken, die allgemein anerkannte Standards für richtig und falsch anwenden, um das moralische Verhalten bei der Entwicklung und dem Einsatz von Technologien für künstliche Intelligenz zu steuern.

Roboterethik, auch bekannt als Roboethik oder Maschinenethik, befasst sich mit den Regeln, die angewendet werden sollten, um das ethische Verhalten von Robotern sicherzustellen, sowie mit der Gestaltung ethischer Roboter. Die Roboethik befasst sich mit Bedenken und moralischen Dilemmata, z. B. ob Roboter langfristig eine Bedrohung für den Menschen darstellenlaufen, oder ob mit einigen Robotern, wie Killerroboter kann in Kriegen für die Menschheit problematisch werden.

Werbung

Robotiker müssen sicherstellen, dass autonome Systeme in Situationen, in denen Roboter, KI-Systeme und andere autonome Systeme wie selbstfahrende Fahrzeuge mit Menschen interagieren, ethisch vertretbares Verhalten zeigen können.

Künstliche Intelligenz, Automatisierung und KI-Ethik

Die Entwicklung von KI-Systemen muss immer verantwortungsbewusst und auf optimale Nachhaltigkeit zum Wohle der Allgemeinheit ausgerichtet sein. Quelle : Putilich / iStock

Künstliche Intelligenz KI und Automatisierung verändern und beeinflussen unsere Gesellschaft dramatisch. Die Anwendung von Prinzipien der KI-Ethik auf das Design und die Implementierung von algorithmischen oder intelligenten Systemen und KI-Projekten im öffentlichen Sektor ist von größter Bedeutung. Die KI-Ethik wird sicherstellen, dass die Entwicklung undDer Einsatz künstlicher Intelligenz ist ethisch, sicher und äußerst verantwortungsbewusst.

Die neue vernetzte digitale Welt powered by 5G-Technologie bietet ein großes Potenzial und einen raschen Gewinn an Kraft für künstliche Intelligenz für eine bessere Gesellschaft. Innovation und Implementierung von KI wirken sich bereits auf die Verbesserung der Dienstleistungen von Gesundheitswesen, Bildung und Transport bis hin zur Lebensmittelversorgungskette, Energie und Umweltmanagement ausPläne, um nur einige zu nennen.

Werbung

Mit den rasanten Fortschritten bei der Rechenleistung und dem Zugriff auf große Mengen an Big Data werden sich Systeme für künstliche Intelligenz und maschinelles Lernen weiter verbessern und weiterentwickeln. In nur wenigen Jahren werden KI-Systeme in der Lage sein, Daten zu verarbeiten und zu nutzennicht nur noch schneller, sondern auch genauer.

Wie immer geht mit der Macht eine große Verantwortung einher. Trotz der Vorteile und Nutzen, die Technologien wie künstliche Intelligenz für die Welt bringen, können sie Menschen und der Gesellschaft möglicherweise irreparablen Schaden zufügen, wenn sie missbraucht oder schlecht konstruiert werden. Die Entwicklung von KI-Systemenmuss immer verantwortlich sein und auf eine optimale Nachhaltigkeit zum Wohle der Allgemeinheit hin entwickelt werden.

Ethik der künstlichen Intelligenz und mögliche Schäden durch KI-Systeme

KI-Projekte lagen auf der Grundlage der Strukturierung und Verarbeitung von Big Data Quelle : feste Farben / iStock

KI-Ethik und -Sicherheit müssen beim Entwurf und der Implementierung von KI-Systemen Vorrang haben. KI-Ethik entsteht, um individuelle und gesellschaftliche Schäden zu vermeiden, die durch Missbrauch, Missbrauch, schlechtes Design oder unbeabsichtigte negative Folgen von KI-Systemen verursacht werden.

Werbung

nach Dr. David Leslie , Ethik-Themenleiter im Rahmen des Programms für öffentliche Ordnung und Ethik-Stipendiat bei Alan Turing Institute In London, England, können folgende Schäden durch KI-Systeme verursacht werden :

  • KI-Systeme: Verzerrung und Diskriminierung

KI-Systemdesigner wählen die Funktionen, Metriken und Analysestrukturen der Modelle aus, die Data Mining ermöglichen. Daher können datengesteuerte Technologien wie künstliche Intelligenz möglicherweise die Vorurteile und Vorurteile ihres Designers replizieren.

Datenbeispiele trainieren und testen algorithmische Systeme. Sie können jedoch häufig nicht ausreichend repräsentativ für die Populationen sein, aus denen sie Schlussfolgerungen ziehen. Dadurch entstehen Möglichkeiten für voreingenommene und diskriminierende Ergebnisse aufgrund eines Fehlers von Anfang an, wenn der Designer die Daten einspeistin die Systeme.

  • KI-Systeme: Verweigerung der individuellen Autonomie, des Rückgriffs und der Rechte

In der Vergangenheit waren KI-Systeme, die kognitive Funktionen automatisieren, ausschließlich verantwortlichen menschlichen Agenten zuzuschreiben. Heute treffen KI-Systeme Entscheidungen, Vorhersagen und Klassifizierungen, die sich auf die Bürger auswirken.

Werbung

Bestimmte Situationen können auftreten, in denen diese Personen nicht in der Lage sind, die für die Ergebnisse verantwortlichen Parteien zur Rechenschaft zu ziehen. Eine der häufigsten Reaktionen von Menschen zur Rechtfertigung negativer Ergebnisse besteht darin, dem KI-System die Schuld zu geben und hinzuzufügen, dass sie nichts tun können, um Änderungen vorzunehmendas Ergebnis. Etwas, das nicht real ist.

Eine solche Reaktion ist absolut lächerlich, da KI-Systeme von einem menschlichen Designer entworfen und programmiert werden. Daher kann ein Mensch ein nicht zufriedenstellendes Ergebnis korrigieren und ändern. Nehmen Sie als Beispiel einen Fall von Verletzungen oder eine negative Konsequenzeine solche Lücke in der Rechenschaftspflicht, die die Autonomie beeinträchtigen und die Rechte der betroffenen Personen verletzen kann.

  • KI-Systeme: Nicht transparente, unerklärliche oder nicht zu rechtfertigende Ergebnisse

In einigen Fällen können maschinelle Lernmodelle ihre Ergebnisse generieren, indem sie mit hochdimensionalen Korrelationen arbeiten, die über die Interpretationsfähigkeiten des menschlichen Denkens hinausgehen.

Werbung

Dies sind Fälle, in denen die Begründung algorithmisch erzeugter Ergebnisse, die sich direkt auf Entscheidungsthemen auswirken, für diese Probanden möglicherweise undurchsichtig bleibt. In einigen Anwendungsfällen ist diese mangelnde Erklärbarkeit möglicherweise nicht die Ursache für zu viele Probleme.

Bei Anwendungen, bei denen die verarbeiteten Daten Spuren von Diskriminierung, Voreingenommenheit, Ungleichheit oder Ungerechtigkeit aufweisen können, kann die Unklarheit des Modells jedoch äußerst problematisch sein.

  • KI-Systeme: Eingriffe in die Privatsphäre

KI-Systeme gefährden die Privatsphäre auf zweierlei Weise :

- Aufgrund ihrer Design- und Entwicklungsprozesse

- Aufgrund ihres Einsatzes

KI-Projekte basieren auf der Strukturierung und Verarbeitung von Big Data. Riesige Mengen personenbezogener Daten werden gesammelt, verarbeitet und zur Entwicklung von KI-Technologien verwendet. In den meisten Fällen werden Big Data erfasst und extrahiert, ohne die entsprechende Zustimmung einzuholenSehr oft enthüllt die Verwendung von Big Data - oder gefährdete Orte - persönliche Informationen, die die Privatsphäre des Einzelnen gefährden.

Werbung

Der Einsatz von KI-Systemen kann Dateninhaber ohne deren Wissen oder Zustimmung ansprechen, profilieren oder anstoßen. Dies bedeutet, dass solche KI-Systeme die Fähigkeit der Personen verletzen, ein Privatleben zu führen. Eine Verletzung der Privatsphäre kann folglich das Recht verletzenZiele oder Lebenspläne zu verfolgen, die frei von ungewähltem Einfluss sind.

  • KI-Systeme: Isolierung und Auflösung der sozialen Verbindung

Die Fähigkeit von KI-Systemen, individuelle Erfahrungen zu kuratieren und digitale Dienste zu personalisieren, hat das Potenzial, das Leben der Verbraucher und die Bereitstellung von Diensten zu verbessern. Dies ist ein Vorteil, wenn es richtig gemacht wird, birgt jedoch potenzielle Risiken.

Solche Risiken sind möglicherweise zu Beginn nicht sichtbar oder werden nicht als Risiken angezeigt. Eine übermäßige Automatisierung kann jedoch möglicherweise zu einer Verringerung der Interaktion von Mensch zu Mensch führen, und damit ist es möglicherweise nicht möglich, problematische Situationen auf individueller Ebene zu lösenlänger.

Algorithmisch aktivierte Hyperpersonalisierung kann die Kundenzufriedenheit verbessern, begrenzt jedoch unsere Exposition gegenüber Weltanschauungen, die sich von unseren unterscheiden, und dies kann soziale Beziehungen polarisieren.

Seit der Zeit des griechischen Philosophen Platon haben geordnete und zusammenhängende Gesellschaften auf Beziehungen des menschlichen Vertrauens, der Empathie und des gegenseitigen Verständnisses aufgebaut. Mit zunehmender Verbreitung der Technologien für künstliche Intelligenz ist es von größter Bedeutung, dass diese Beziehungen des menschlichen Vertrauens oder der Empathie bestehenoder gegenseitiges Verständnis bleiben erhalten.

  • KI-Systeme: Unzuverlässige, unsichere oder qualitativ schlechte Ergebnisse

Die Implementierung und Verteilung von KI-Systemen, die zu unzuverlässigen, unsicheren oder qualitativ minderwertigen Ergebnissen führen, kann das Ergebnis eines verantwortungslosen Datenmanagements, fahrlässiger Designproduktionsprozesse oder fragwürdiger Bereitstellungspraktiken sein. Folglich kann dies direkt zu einer Beeinträchtigung des Wohlbefindens von führenEinzelpersonen sowie das Gemeinwohl schädigen.

Solche Ergebnisse können auch das Vertrauen der Öffentlichkeit in den verantwortungsvollen Umgang mit gesellschaftlich vorteilhaften KI-Technologien untergraben. Darüber hinaus können sie schädliche Ineffizienzen verursachen, indem begrenzte Ressourcen für ineffiziente oder sogar schädliche KI-Technologien eingesetzt werden.

Angewandte Ethik der künstlichen Intelligenz

Vielleicht in der Zukunft Allgemeine KI könnte zu moralischen Akteuren mit zugeschriebener moralischer Verantwortung werden Quelle : Davidf / iStock

In seiner Anleitung Verständnis der Ethik und Sicherheit künstlicher Intelligenz: Ein Leitfaden für den verantwortungsvollen Entwurf und die Implementierung von KI-Systemen im öffentlichen Sektor , exklusiv unterstützt vom Public Policy Program des Alan Turing Institute, schreibt Dr. David Leslie :

Wenn Menschen Dinge tun, die Intelligenz erfordern, machen wir sie für die Richtigkeit, Zuverlässigkeit und Richtigkeit ihrer Urteile verantwortlich. Darüber hinaus fordern wir von ihnen, dass ihre Handlungen und Entscheidungen aus guten Gründen unterstützt werden, und wir machen sie für ihre verantwortlichFairness, Gerechtigkeit und Angemessenheit des Umgangs mit anderen. “

nach Marvin Minsky Als amerikanischer Kognitionswissenschaftler, Mitbegründer des KI-Labors des Massachusetts Institute of Technology und KI-Pionier war künstliche Intelligenz die Wissenschaft, Computer dazu zu bringen, Dinge zu tun, die Intelligenz erfordern, wenn sie von Menschen ausgeführt werden.

Diese Standarddefinition gibt uns einen Hinweis darauf, welche Motivation zur Entwicklung des Bereichs der angewandten Ethik der künstlichen Intelligenz geführt hat.

Laut Dr. David Leslie besteht die Notwendigkeit, Prinzipien zu entwickeln, die auf das Design und die Verwendung von KI-Systemen zugeschnitten sind, darin, dass ihre Entstehung und Erweiterung der Fähigkeit, Dinge zu tun, die Intelligenz erfordern, eine Verlagerung einer Vielzahl kognitiver Funktionen in algorithmische Prozesse eingeläutet hat, die selbst weder direkt verantwortlich noch unmittelbar für die Folgen ihres Verhaltens verantwortlich gemacht werden können.

Programmbasierte Maschinen wie KI-Systeme können nicht als moralisch rechenschaftspflichtige Agenten angesehen werden. Diese Realität gab Raum für die Schaffung einer Disziplin, die sich mit ethischen Verstößen im Bereich der angewandten Wissenschaft der künstlichen Intelligenz befassen könnte.

Genau dies versuchen nun die Rahmenbedingungen für die KI-Ethik zu füllen. Fairness, Rechenschaftspflicht, Nachhaltigkeit und Transparenz sind Grundsätze, die die Lücke zwischen der neuen intelligenten Agentur für Maschinen und ihrem grundsätzlichen Mangel an moralischer Verantwortung schließen sollen.

Wenn Menschen Dinge tun, die Intelligenz erfordern, werden sie dafür verantwortlich gemacht. Mit anderen Worten, auf der gegenwärtigen Ebene, auf der künstliche Intelligenz arbeitet, sind Menschen die einzigen, die für ihre programmbasierten Kreationen verantwortlich sind.

Implementierung und Design von Systemen für künstliche Intelligenz müssen zur Rechenschaft gezogen werden. Vielleicht in Zukunft Allgemeine KI könnte zu moralischen Agenten mit zugeschriebener moralischer Verantwortung werden.

Derzeit müssen Ingenieure und Designer von KI-Systemen jedoch Verantwortung übernehmen und für das, was sie erstellen, entwerfen und programmieren, zur Verantwortung gezogen werden.

Verwandte Artikel :

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.