Werbung

Die größte Gefahr der KI ist nicht Skynet – es ist die menschliche Voreingenommenheit, die Sie erschrecken sollte

Künstliche Intelligenz hält der menschlichen Schadensfähigkeit nicht das Wasser.

In den letzten Jahren wurde viel darüber gesprochen die Bedrohung durch künstliche allgemeine Intelligenz AGI. Ein AGI ist im Wesentlichen ein künstliches Superintelligenz. Es ist ein System, das in der Lage ist, jede intellektuelle Aufgabe zu verstehen – oder zu lernen –, die ein Mensch kann. Experten aus scheinbar allen Bereichen der Gesellschaft haben sich über diese Art von KI-Systemen geäußert und sie als Roboter im Terminator-Stil dargestellt, die Amok laufen und massiven Tod und Zerstörung verursachen werden.

Elon Musk, der CEO von SpaceX und Tesla, hat häufig gegen die Schaffung von AGI gewettert und solche superintelligenten Systeme in apokalyptische Begriffe geworfen. Auf der SXSW 2018, er nannte digitale Superintelligenzen " die größte existenzielle Krise, mit der wir konfrontiert sind, und die dringendste“, und er sagte, dass diese Systeme letztendlich tödlicher sein werden als ein nuklearer Holocaust. Der verstorbene Stephen Hawking teilte diese Befürchtungen, das sagte er 2014 der BBC "Die Entwicklung vollständiger künstlicher Intelligenz könnte das Ende der Menschheit bedeuten."

Viele Informatikexperten stimmen ebenfalls zu. Ein typisches Beispiel ist Stuart Russell, ein Informatik- und Smith-Zadeh-Professor für Ingenieurwissenschaften an der University of California, Berkely, erschienen in ein Kurzfilm der vor der Gefahr von Schlachtbots warnte – Waffen, die künstliche Intelligenz verwenden, um ohne menschliches Eingreifen zu identifizieren und zu töten. Der Zweck des Films? Menschen dazu zu bringen, Maßnahmen zu ergreifen, um superintelligente autonome Waffensysteme zu verbieten.

Aber nur wenige Leute schimpfen gegen die Art und Weise, wie KI-Systeme sind.bereits Menschen schaden. Und ja, KI-Systeme verursachen bereits unglaublichen Schaden auf der Welt, aber nicht aus Gründen, die Sie vielleicht denken.

Es ist nicht die Drohung eines Allmächtigen Superintelligenz über die Menschheit herrschen oder die Ressourcen der ganzen Welt zuwenden Büroklammern machen worüber wir uns derzeit am meisten Sorgen machen müssen. Eine solche Realität ist noch in weiter Ferne. Es sind die menschlichen Institutionen, die bereits KI verwenden, die wir heute hinterfragen und untersuchen müssen, da viele Anwendungsfälle den Menschen bereits real schaden unddramatische Wege.

Werbung

Wie menschliche Vorurteile künstliche Intelligenz beeinflussen

Quelle: sdecoret/iStock

In Statistik und Data Science gibt es ein Sprichwort: Müll rein, Müll raus.

Dies ist ein ernstes Problem, wenn es um maschinelle Lernalgorithmen geht. Deep Learning ist eine Familie von maschinellen Lernmethoden, die neuronale Netze verwenden, um einem Computeralgorithmus das Erkennen von Mustern „beizubringen“. Durch diesen Musterabgleich können Computer erkennen und identifizierenSongs, nachdem Sie nur ein paar Sekunden Musik gehört haben, Sprache erkennen und die Worte transkribieren, die ein Sprecher sagt, und sogar generieren tiefe Fälschungen.

Alle Deep-Learning-Methoden – tatsächlich alle maschinellen Lernmethoden – beginnen mit Daten.

Immer wenn Sie einen Nachrichtenbericht über einen Forscher hören, der eine Website wie Facebook nach öffentlichen Fotos durchforstet, um sie für irgendeine Art von Gesichtserkennungsprogramm, die Bilder sind die Daten, mit denen der maschinelle Lernalgorithmus trainiert wird. Glücklicherweise werden die Bilder, sobald sie den maschinellen Lernalgorithmus durchlaufen haben, normalerweise gelöscht, da sie für die Datenwissenschaftler nicht mehr nützlich sind. Leutebeschweren sich oft über die Auswirkungen auf die Privatsphäre, aber um das Problem zu sehen, müssen wir zu diesem alten Sprichwort zurückkehren: Müll rein, Müll raus.

Werbung

Das soll nicht heißen, dass Ihr schönes Selfie unbedingt Müll ist. Aber was ist, wenn die Mehrheit der Selfies, die in den Algorithmus eingespeist werden, überwiegend hellhäutige, „weiße“ Gesichter zeigen? Nun, dann wird dieser Algorithmus sehr gut darin sein, diese zu erkennenArten von Gesichtern. Wie würde es Ihrer Meinung nach funktionieren, wenn es die Aufgabe hätte, dunkelhäutige, "schwarze und braune" Gesichter zu erkennen und zu identifizieren?Gesichter.

Was ist mit Kreditanträge? Wenn Sie jeden aufgezeichneten Kreditantrag in einen maschinellen Lernalgorithmus einspeisen würden, zusammen mit der Frage, ob dieser Antrag genehmigt oder abgelehnt wurde, dann wäre Ihr maschineller Lernalgorithmus sehr gut darin, die Arten von Kreditanträgen zu akzeptieren, die es gegeben hatbereits angenommen und diejenigen ablehnen, die zuvor abgelehnt wurden.

Werbung

Aber was wäre, wenn die Daten, die Sie ihm fütterten, hauptsächlich aus 1 abgelehnten Kreditanträgen von Bewerbern aus Minderheiten mit tadellosen Kreditunterlagen und 2 akzeptierten Anträgen von weißen Bewerbern mit weniger als tadelloser Kreditwürdigkeit bestanden?Wenn dies die verwendeten Daten wären, würde der Algorithmus versehentlich darauf trainiert werden, auf die Rasse der Bewerber statt auf die Kreditwürdigkeit zu achten, und davon ausgehen, dass Personen mit Minderheitenhintergrund oder mit dunkler Hautfarbe deshalb abgelehnt werden solltenscheint das zugrunde liegende Muster des Kreditgenehmigungsprozesses zu sein.Und der Algorithmus wäre nicht falsch, das zu erkennen . Tatsächlich würde es genau das tun, wozu seine menschlichen Schöpfer es trainiert haben.

Dinge wie diese sind bereits im Gange.

Was ist mit der Strafverfolgung? Seit den 1990er Jahren verlassen sich Polizeidienststellen auf der ganzen Welt auf Kriminalstatistiken, um ein „prädiktives Polizeimodell“ für die Strafverfolgung zu erstellen, im Wesentlichen um Polizeiressourcen in den Bereichen zu platzieren, in denen die Daten „die meisten Verbrechen“ besagen" findet statt. Aber wenn die meisten Ihrer Polizeiressourcen auf ein bestimmtes Gebiet gerichtet sind, vielleicht ein Gebiet, in dem Minderheiten leben, dann ist es auch wahrscheinlicher, dass Sie in diesem Gebiet Verbrechen finden.

Werbung

Wenn diese Daten dann in den "vorhersagenden" Algorithmus eingespeist werden, wird er feststellen, dass in diesem Bereich mehr Verbrechen vorkommen, also werden mehr Ressourcen in diesen Bereich geschickt, was dazu führt, dass mehr Verbrechen gefunden werden. Diese Rückkopplungsschleifespiegelt nicht wider, wo Verbrechen tatsächlich stattfinden, es spiegelt wider, wo die Polizei Verbrechen findet, was einen subtilen, aber wichtigen Unterschied darstelltverstärkt wiederum die polizeiliche Ausrichtung auf diese Bereiche.

Auch hier sprechen wir nicht über eine imaginäre, fiktive Zukunft.Diese voreingenommenen Algorithmen existieren bereits, und sie werden in Polizeidienststellen auf der ganzen Welt eingesetzt.

Wie künstliche Intelligenz bestehende Vorurteile wäscht

Quelle: geralt/Pixabay

Offensichtlich ist im Falle der Polizeiarbeit der Schaden, der durch ein Modell des maschinellen Lernens verursacht wird, offensichtlich. Der Drogenkonsum über verschiedene Rassen- und Einkommensdemografien hinweg ist nahezu identisch, aber vorausschauende Polizeiarbeit leitet Polizeiressourcen überwiegend in arme und Minderheitenviertel, was zu unverhältnismäßigen Festnahmen führtund zerstörte Leben.

Werbung

Ebenso wie bei der Gesichtserkennung, wenn die Strafverfolgungsbehörden ein Gesichtserkennungssystem verwenden, um kriminelle Verdächtige zu identifizieren, und dieser Algorithmus nicht gut darin geschult ist, dunkelhäutige Gesichter zu erkennen, wird er eine größere Anzahl falsch positiver Ergebnisse erzeugen. Wenn eine unverhältnismäßigeWenn eine Reihe von Verdächtigen vom Gesichtserkennungsalgorithmus falsch identifiziert werden und diese Fehlidentifikationen zu einer Verhaftung – oder schlimmer noch, einer Verurteilung – führen, dann verstärkt sich dieser Algorithmus selbst und ist nicht nur falsch, sondern gefährlich.

Dies ist ein noch größeres Problem, da wir uns im Laufe der Jahre dem maschinellen Lernen genähert haben: wir haben es so behandelt, als wäre es nicht voreingenommen.

Wenn Ihr Kreditantrag abgelehnt wurde, lag das nicht daran, dass der Kreditsachbearbeiter rassistisch war, sondern daran, dass der Algorithmus sagte, er solle Sie ablehnen, und Sie wurden abgelehnt. Wenn Ihre Gemeinde übermäßig überwacht wird, liegt das nicht unbedingt daran, dass die aktuellen Bullen es sindrassistisch, weil der Algorithmus der Polizei mitgeteilt hat, dass es in Ihrer Nachbarschaft eine höhere Kriminalitätsrate gibt – er hat die Beamten dazu gebracht zu glauben, dass es in Ihrer Nachbarschaft mehr Kriminelle gibtunbedingt dasPolizisten oder Zeugen hat dich falsch identifiziert unbewusste rassistische Vorurteile, es liegt daran, dass eine künstliche Intelligenz Ihr Gesicht mit körnigem Überwachungskameramaterial von jemandem abgeglichen hat, der ein Verbrechen begeht. Natürlich hat diese unbewusste Voreingenommenheit die Zeugen und Beamten möglicherweise auch dazu gebracht, dieses körnige Material und den KI-Abgleich für bare Münze zu nehmen.

Werbung

In jedem dieser Fälle haben Sie den Menschen durch einen maschinellen Lernalgorithmus ersetzt, aber irgendwie reproduzieren sich die gleichen systemischen Muster der Diskriminierung und Verfolgung von Armen und Minderheiten, die seit Jahrzehnten dokumentiert sind, auf magische Weise in der künstlichen Intelligenz. Allerdings, weil wir künstliche Intelligenz so behandeln, als ob sie keine menschlichen Vorurteile hätte, nehmen wir sie beim Wort, was zu denselben systemischen Vorurteilen führt, die wir zu vermeiden „versuchten“.

Können bessere Daten helfen?

Ist das Problem eine Frage der Verwendung besserer Daten oder versuchen wir einfach, ein Pflaster auf eine klaffende soziale Wunde zu kleben und hoffe, dass sich das Problem von selbst behebt?

Sicherlich wird die Berücksichtigung von Verzerrungen in Trainingsdaten für maschinelles Lernen zu besseren Modellen führen, aber sie werden nicht perfekt sein. Wir werden die Modelle niemals vollständig neutralisieren können, und es gibt allen Grund zu fragen, ob dies das Ziel sein sollteAnstatt einfach zu versuchen, unvoreingenommene KI-Systeme zu entwickeln, was eine unmögliche Aufgabe sein könnte, müssen wir vielleicht die zugrunde liegenden Dinge hinterfragen, die wir zu tun versuchen, und ob sie wirklich notwendig sind und von KI unterstützt werden.

Rashida Richardson, eine Anwältin und Forscherin, die an der Rutgers Law School in New Jersey algorithmische Voreingenommenheit studiert, behauptet, dass die Lösung klar ist: Anstatt zu versuchen, diese Geschichte des Missbrauchs mit einem Feigenblatt der Verbesserung des „unparteiischen“ maschinellen Lernens zu überspielen, sollten unsere Bemühungen besser auf die Grundprobleme gerichtet sein, die künstliche Intelligenz zu verbessern versucht. Mit anderen Worten, wir müssen uns darauf konzentrierenBeheben der aktuellen Probleme in unseren sozialen Systemen. Anschließend können wir uns auf die Entwicklung brauchbarer KI-Tools konzentrieren.

Vielleicht müssen wir uns eines Tages in ferner Zukunft Sorgen um AGI im Terminator-Stil machen. Aber im Moment hilft die Angstmacherei nicht und lenkt nur von den Gesprächen ab, die wir über den tatsächlichen Schaden führen sollten, der durch KI verursacht wird.

Folgen Sie uns auf

ERHALTEN SIE IHRE TÄGLICHEN NACHRICHTEN DIREKT IN IHREM INBOX

Bleiben Sie kostenlos mit den neuesten Nachrichten aus Wissenschaft, Technologie und Innovation auf dem Laufenden :

Durch das Abonnieren stimmen Sie unseren zuNutzungsbedingungen und Datenschutzerklärung. Sie können sich jederzeit abmelden.