Werbung

Deadbots können nach deinem Tod für dich sprechen, aber wie ethisch ist das?

Maschinelles Lernen und KI sind möglicherweise zu weit gegangen.

3D-Hologramm eines menschlichen Kopfes links und eines Friedhofs rechts. 1, 2

Machine-Learning-Systeme schlängeln sich zunehmend durch unseren Alltag und hinterfragen unsere moralischen und sozialen Werte und die Regeln, die sie beherrschen. Heutzutage, virtuelle Assistenten die Privatsphäre des Hauses bedrohen; Nachrichtenempfehlungen prägen die Art und Weise, wie wir die Welt verstehen; Risikovorhersagesysteme Tipp Sozialarbeiter, welche Kinder vor Missbrauch geschützt werden sollten; während datengesteuerte Einstellungstools bewerten Sie auch Ihre Chancen auf einen Job. Die Ethik des maschinellen Lernens bleibt für viele verschwommen.

Bei der Suche nach Artikeln zu diesem Thema für die jungen Ingenieure, die den Kurs für Ethik und Informations- und Kommunikationstechnologie an der UC Louvain, Belgien, besuchen, war ich besonders beeindruckt von dem Fall von Joshua Barbeau, ein 33-jähriger Mann, der eine Website namens Projekt Dezember um einen Konversationsroboter zu erstellen – a Chatbot – das würde ein Gespräch mit seiner verstorbenen Verlobten Jessica simulieren.

Gesprächsroboter imitieren tote Menschen

bekannt als toter Bot, erlaubte diese Art von Chatbot Barbeau, Textnachrichten mit einer künstlichen „Jessica“ auszutauschen. Trotz der ethisch umstrittenen Natur des Falls fand ich selten Materialien, die über den bloßen sachlichen Aspekt hinausgingen und den Fall durch eine explizit normative Linse analysierten:warum wäre es richtig oder falsch, ethisch wünschenswert oder verwerflich, einen Deadbot zu entwickeln?

Bevor wir uns mit diesen Fragen auseinandersetzen, lassen Sie uns die Dinge in einen Kontext setzen: Das Projekt Dezember wurde vom Spieleentwickler Jason Rohrer erstellt, um es Menschen zu ermöglichen, Chatbots mit der Persönlichkeit anzupassen, mit der sie interagieren möchten, vorausgesetzt, sie bezahlen dafür. Das Projekt warerstellte Zeichnung auf einer API von GPT-3, ein textgenerierendes Sprachmodell des Forschungsunternehmens für künstliche Intelligenz OpenAI. Barbeaus Fall eröffnet a Kluft zwischen Rohrer und OpenAI weil das Unternehmen Richtlinien ausdrücklich verbieten, dass GPT-3 für sexuelle, amouröse, selbstverletzende oder Mobbing-Zwecke verwendet wird.

Werbung

AnrufPosition von OpenAI hypermoralistisch und argumentierend, dass Leute wie Barbeau „zustimmende Erwachsene“ seien, schloss Rohrer die GPT-3-Version von Project December.

Obwohl wir alle eine Intuition darüber haben, ob es richtig oder falsch ist, einen maschinell lernenden Deadbot zu entwickeln, ist es keine leichte Aufgabe, seine Auswirkungen zu formulieren. Aus diesem Grund ist es wichtig, die durch den Fall aufgeworfenen ethischen Fragen anzusprechen,Schritt für Schritt.

Reicht Barbeaus Zustimmung aus, um Jessicas Deadbot zu entwickeln?

Da Jessica eine echte wenn auch tote Person war, scheint Barbeaus Zustimmung zur Schaffung eines Deadbots, der sie nachahmt, unzureichend. Selbst wenn sie sterben, sind Menschen nicht nur Dinge, mit denen andere tun können, was sie wollen. Das ist der Grund für unsere Gesellschaftenhalten es für falsch, das Andenken an die Toten zu entweihen oder respektlos zu behandeln. Mit anderen Worten, wir haben bestimmte moralische Verpflichtungen gegenüber den Toten, insofern der Tod nicht unbedingt bedeutet, dass Menschen in einem moralisch relevanter Weg.

Werbung

Ebenso ist die Debatte offen, ob wir die Grundrechte der Toten schützen sollten z. B. Datenschutz und persönliche Daten.Die Entwicklung eines Deadbots, der die Persönlichkeit einer Person repliziert, erfordert große Mengen an persönlichen Informationen wie Daten aus sozialen Netzwerken sehen Sie was Microsoft oder Ewigkeit vorschlagen, die sich als enthüllend erwiesen haben hochsensible Eigenschaften.

Wenn wir zustimmen, dass es unethisch ist, die Daten von Menschen ohne ihre Zustimmung zu Lebzeiten zu verwenden, warum sollte es dann ethisch vertretbar sein, dies nach ihrem Tod zu tun? In diesem Sinne erscheint es bei der Entwicklung eines Deadbots vernünftig, die Zustimmung von zu verlangendiejenige, deren Persönlichkeit gespiegelt wird – in diesem Fall Jessica.

Wenn die imitierte Person grünes Licht gibt

Die zweite Frage lautet also: Würde Jessicas Zustimmung ausreichen, um die Kreation ihres Deadbots als ethisch zu betrachten? Was wäre, wenn es ihr Gedächtnis beeinträchtigen würde?

Werbung

Die Grenzen der Zustimmung sind in der Tat ein umstrittenes Thema. Nehmen Sie als paradigmatisches Beispiel die „Rotenburger Kannibale“, der zu lebenslanger Haft verurteilt wurde, obwohl sein Opfer zugestimmt hatte, gegessen zu werden. In diesem Zusammenhang wurde argumentiert, dass es unethisch sei, Dingen zuzustimmen, die uns schaden können, sei es körperlich zu verkaufender eigenen lebenswichtigen Organe oder abstrakt um die eigenen Rechte zu veräußern.

In welcher konkreten Hinsicht etwas für die Toten schädlich sein könnte, ist ein besonders komplexes Thema, das ich nicht vollständig analysieren werde. Es ist jedoch erwähnenswert, dass selbst wenn die Toten nicht auf die gleiche Weise geschädigt oder beleidigt werden können wie die Lebendenbedeutet dies nicht, dass sie gegen schlechte Taten unverwundbar sind oder dass diese ethisch sind. Die Toten können Schaden an ihrer Ehre, ihrem Ruf oder ihrer Würde erleiden z. B. posthume Schmutzkampagnen, und die Respektlosigkeit gegenüber den Toten schadet auch den NahestehendenDarüber hinaus führt uns ein schlechtes Verhalten gegenüber den Toten zu einer Gesellschaft, die ungerechter ist und die Würde der Menschen insgesamt weniger respektiert.

Werbung

Schließlich besteht angesichts der Formbarkeit und Unvorhersehbarkeit von maschinellen Lernsystemen die Gefahr, dass die Zustimmung der nachgeahmten Person während sie lebt nicht viel mehr als einen Blankoscheck für ihre potenziellen Wege bedeutet.

In Anbetracht all dessen erscheint es vernünftig zu schlussfolgern, dass, wenn die Entwicklung oder Verwendung des Deadbots nicht der Zustimmung der nachgeahmten Person entspricht, ihre Zustimmung als ungültig angesehen werden sollte. Darüber hinaus, wenn sie eindeutig und vorsätzlich ihre Würde verletzt,selbst ihre Zustimmung sollte nicht ausreichen, um es als ethisch zu betrachten.

Wer übernimmt die Verantwortung?

Eine dritte Frage ist, ob Systeme mit künstlicher Intelligenz eine Nachahmung anstreben sollten jede Art des menschlichen Verhaltens unabhängig davon, ob dies möglich ist.

Dies ist ein seit langem bestehendes Anliegen im Bereich der KI und eng mit dem Streit zwischen Rohrer und OpenAI verbunden. Sollen wir künstliche Systeme entwickeln, die beispielsweise in der Lage sind, sich um andere zu kümmern oder politische Entscheidungen zu treffen? Es scheint soEs gibt etwas in diesen Fähigkeiten, das Menschen von anderen Tieren und von Maschinen unterscheidet. Daher ist es wichtig zu beachten, dass die KI für Techno-Solutionist Zwecke wie das Ersetzen geliebter Menschen können zu einer Abwertung dessen führen, was uns als Menschen ausmacht.

Werbung

Die vierte ethische Frage ist, wer die Verantwortung für die Ergebnisse eines Deadbots trägt – insbesondere im Falle schädlicher Auswirkungen.

Stellen Sie sich vor, dass Jessicas Deadbot selbstständig gelernt hat, auf eine Weise aufzutreten, die ihr Gedächtnis erniedrigt oder irreversibel geschädigt hat. Barbeaus geistige Gesundheit. Wer würde die Verantwortung übernehmen? KI-Experten beantworten diese schlüpfrige Frage durch zwei Hauptansätze: Erstens fällt die Verantwortung auf diese beteiligt an Design und Entwicklung des Systems, solange sie dies nach ihren jeweiligen Interessen und Weltanschauungen tun; zweitens sind maschinell lernende Systeme kontextabhängig, also die moralische Verantwortung ihrer Ergebnisse sollte verteilt werden unter allen Agenten, die mit ihnen interagieren.

Ich stelle mich näher an die erste Position. In diesem Fall, da es eine explizite Co-Kreation des Deadbots gibt, an der OpenAI, Jason Rohrer und Joshua Barbeau beteiligt sind, halte ich es für logisch, das Maß an Verantwortung jeder Partei zu analysieren.

Werbung

Erstens wäre es schwierig, OpenAI verantwortlich zu machen, nachdem sie ausdrücklich verboten haben, ihr System für sexuelle, amouröse, selbstverletzende oder Mobbing-Zwecke zu verwenden.

Es scheint vernünftig, Rohrer ein erhebliches Maß an moralischer Verantwortung zuzuschreiben, weil er: a das System, das es ermöglichte, den Deadbot zu erschaffen, ausdrücklich entworfen hat; b dies tat, ohne Maßnahmen zur Vermeidung potenzieller negativer Folgen vorwegzunehmen; c war sich bewusst, dass es die Richtlinien von OpenAI nicht einhielt, und d profitierte davon.

Und da Barbeau den Deadbot unter Berücksichtigung bestimmter Merkmale von Jessica angepasst hat, scheint es legitim, ihn für den Fall, dass er ihr Gedächtnis beeinträchtigt, mitverantwortlich zu machen.

Ethisch, unter bestimmten Bedingungen

Um auf unsere erste, allgemeine Frage zurückzukommen, ob es ethisch vertretbar ist, einen maschinell lernenden Deadbot zu entwickeln, könnten wir eine bejahende Antwort unter der Bedingung geben, dass:

  • Sowohl die nachgeahmte Person als auch die Person, die es anpasst und mit ihm interagiert, haben ihre freie Zustimmung zu einer möglichst detaillierten Beschreibung des Designs, der Entwicklung und der Verwendung des Systems gegeben;

  • Entwicklungen und Nutzungen, die sich nicht an die Zustimmung der nachgeahmten Person halten oder gegen ihre Würde verstoßen, sind verboten;

  • Die an seiner Entwicklung beteiligten Personen und diejenigen, die davon profitieren, übernehmen die Verantwortung für mögliche negative Folgen. Sowohl rückwirkend, um Ereignisse zu berücksichtigen, als auch vorausschauend, um deren Eintreten in der Zukunft aktiv zu verhindern.

Dieser Fall zeigt beispielhaft, warum die Ethik des maschinellen Lernens wichtig ist. Er zeigt auch, warum es wichtig ist, eine öffentliche Debatte zu eröffnen, die die Bürger besser informieren und uns dabei helfen kann, politische Maßnahmen zu entwickeln, um KI-Systeme offener, sozial gerechter und konformer zu machenRechte.

Dieser Artikel wurde neu veröffentlicht von Das Gespräch unter einer Creative Commons-Lizenz. Lesen Sie die Originalartikel.

Folgen Sie uns auf

ERHALTEN SIE IHRE TÄGLICHEN NACHRICHTEN DIREKT IN IHREM INBOX

Bleiben Sie kostenlos mit den neuesten Nachrichten aus Wissenschaft, Technologie und Innovation auf dem Laufenden :

Durch das Abonnieren stimmen Sie unseren zuNutzungsbedingungen und Datenschutzerklärung. Sie können sich jederzeit abmelden.