Werbung

Unsere schöne neue Welt: Warum der Fortschritt der KI ethische Bedenken aufwirft

Fortgeschrittene technologische Fähigkeiten bieten ein großes Potenzial für Gutes. Aber die Kehrseite hat auch das Potenzial für schlechte Ziele.

Fast jeden Tag hören wir von neuen Fortschritten in der KI, die neue Möglichkeiten zur Überwachung von Aktivitäten und Menschen ermöglichen und viele Prozesse in unserem täglichen Leben verändern.

VERBINDUNG: BENTHAM, HOBBES UND DIE ETHIK DER KÜNSTLICHEN INTELLIGENZ

Was wir dann vielleicht jeden zweiten Tag hören, ist, wie KI rassistische und geschlechtsspezifische Vorurteile verschärfen und die Privatsphäre, die Arbeitsplatzsicherheit und das wirtschaftliche Wohlergehen gefährden kann. Dies könnte nach Ansicht von Elon Musk möglicherweise sogar einen Krieg auslösen.

KI-gestützte Gesichtserkennung wirft Bedenken hinsichtlich Privatsphäre und Voreingenommenheit auf

Wie in erklärt Bedenken hinsichtlich der Gesichtserkennung: Die sechs ethischen Grundsätze von Microsoft , „Die weit verbreitete Verwendung der Gesichtserkennungstechnologie mit künstlicher Intelligenz kann zu neuen Eingriffen in die Privatsphäre von Menschen führen.“

Angesichts der Fähigkeit, das Image von Personen zu erfassen und sie im Namen der Sicherheit auf öffentlichen Straßen zu identifizieren, sind die Menschen zu Recht besorgt, dass sie ihre Fähigkeit zur Wahrung der Privatsphäre verlieren. Dies gilt auch für Umgebungen in Schule und Beruf, wie im Artikel beschrieben.

A 2018 New York Times Artikel warf ein weiteres Problem mit der Überschrift auf, “ Gesichtserkennung ist genau, wenn Sie ein Weißer sind . ”Das Problem ist das :

„Je dunkler die Haut, desto mehr Fehler treten auf - bis zu 35 Prozent bei Bildern von Frauen mit dunklerer Hautfarbe. Dies geht aus einer neuen Studie hervor, die neue Wege beschreitet, indem gemessen wird, wie die Technologie bei Menschen unterschiedlicher Rassen und Geschlechter funktioniert.“

Die Quelle dieser Zahlen ist Joy Buolamwini, Forscherin am MIT Media Lab und Gründerin der Algorithmic Justice League AJL. Sie hat sich der Aufdeckung gewidmet, wie Vorurteile in die KI eindringen und so die Ergebnisse für die Gesichtserkennung verzerren.

Siehe ihren TED-Vortrag in diesem Video :

In diesem Jahr veröffentlichte Buolamnwini die Ergebnisse ihrer Forschung mit Inioluwa Deborah Raji von der University of Toronto in Umsetzbare Prüfung: Untersuchung der Auswirkungen der öffentlichen Benennung von voreingenommenen Leistungsergebnissen kommerzieller KI-Produkte .

Werbung

Laut dieser Studie Amazon Anerkennung Software hat auch diejenigen durcheinander gebracht, die aus der Kategorie der weißen Männer herausfallen. Laut der Studie wurden Frauen fast fünf Mal fälschlicherweise als Männer identifiziert. Außerdem wurden Frauen mit dunklerer Hautfarbe fälschlicherweise als Männer identifiziert, 31 Prozent der FrauenZeit, heißt es.

Buolamnwini schrieb a mittlerer Beitrag in die sie auf ihre Forschung bezog und die 26 Forscher fordern, dass Amazon den Verkauf von Rekognition einstellt. Die ACLU hat auch den Druck erhöht und fordert die Amazon-Aktionäre auf, die Abschaffung der Gesichtserkennungstechnologie zu fordern.

Der Druck hat einige messbare Ergebnisse erzielt. San Francisco hat kürzlich für ein Verbot gestimmt aus dem Arsenal der von den Strafverfolgungsbehörden verwendeten technischen Hilfsmittel.

Besorgnis über das Voreingenommenheitsproblem der KI

Andere haben auch auf das Potenzial hingewiesen, dass rassistische Vorurteile durch KI verstärkt werden, insbesondere Cathy O'Neil herein Waffen der mathematischen Zerstörung: Wie Big Data die Ungleichheit erhöht und die Demokratie bedroht . Was sie als „mathematische Zerstörung“ bezeichnet, ist das „Ergebnis von Modellen, die Barrieren verstärken und bestimmte demografische Bevölkerungsgruppen benachteiligen, indem sie als weniger kreditwürdig, bildungsmäßig, arbeitsfähig, auf Bewährung usw. eingestuft werden“

Werbung

Siehe ihren TED Talk hier :

Unabhängig davon, ob das Problem auf Fehler in den gesammelten Daten oder in den zur Analyse der Daten eingerichteten Algorithmen zurückzuführen ist, geben sich die Menschen nicht mehr damit zufrieden, AI als objektiv und allwissend zu vertrauen. Sie fordern jetzt erklärbare KI Dies bringt Transparenz in den Prozess und ermöglicht es, Vorurteile und andere Mängel ans Licht zu bringen und zu beheben.

„Es ist wichtig, alles über KI erklärbar, fair, sicher und mit Abstammung zu machen, was bedeutet, dass jeder sehr einfach sehen kann, wie sich eine Anwendung von KI entwickelt hat und warum. deklariert Ginni Rometty, CEO von IBM, während ihrer Grundsatzrede auf der CES am 9. Januar 2019. IBM bietet jetzt Konsultationen zur Verringerung der Voreingenommenheit für diejenigen an, die bauen. maschinelles Lernen Systeme.

Die vollständige Adresse finden Sie hier :

Werbung

Ethische Bedenken hinsichtlich KI als existenzielle Bedrohung

„KI ist ein grundlegendes Risiko für die Existenz der menschlichen Zivilisation“, erklärte Elon Musk 2017 in einem Interview vor einem Publikum im Sommertreffen der National Governors Association . Sie können es in diesem Video vollständig sehen :

Wenn Sie eine viel kürzere Einstellung bevorzugen, können Sie dieses Video sehen :

Musk ist kein Unbekannter für fortschrittliche Technologie und argumentierte aus der Position eines Menschen, der sowohl die Fähigkeiten als auch die Konsequenzen der KI versteht. Deshalb argumentiert er, dass Vorschriften jetzt eingeführt werden müssen, nicht nachdem die Technologie Fortschritte gemacht hat und bereits eine Gefahr darstellt.

Im Gegensatz zu negativen Ergebnissen, die sich aus anderen Technologien in der Vergangenheit ergeben könnten, seien diese „auf Einzelpersonen beschränkt“ und hätten keinen Einfluss auf die „Gesellschaft als Ganzes“, sagte Musk. Die KI stellt jedoch eine „grundlegende, existenzielle“ darRisiko."

Werbung

Für Musk beinhaltet dieses Risiko den Beginn eines Krieges. Er stellte ein „rein hypothetisches“ Beispiel auf, dass es möglich ist, KI mit dem Ziel zu setzen, „den Wert eines Aktienportfolios zu maximieren“, das „lange auf Verteidigung“ ist unddass es alles tun würde, um sein Ende zu erreichen, einschließlich der Bewegung, um einen Krieg auszulösen.

In einer weniger katastrophalen Hinsicht räumte Musk auch ein, dass KI Arbeitsplätze bedroht. Für einige ist dies jedoch die eigentliche Katastrophe, über die man sich Sorgen machen muss.

Ethische Bedenken in Bezug auf KI und Jobs

Im Juli 2017 wurde die Wall Street Journal p veröffentlichte den Artikel, Roboter ersetzen Arbeiter, wo Sie einkaufen . Es wurde beschrieben, dass einige der Technologien bereits menschliche Mitarbeiter in Walmart-Geschäften ersetzen.

Die Tagebuch Der Artikel enthielt auch eine Tabelle von Citi Research zur Bedrohung von Arbeitsplätzen durch Automatisierung bis zum Jahr 2030. Zu den Branchen, die voraussichtlich den geringsten Schaden erleiden werden, gehören Versicherungen und Finanzen mit einer hohen Risikorate von 54 Prozent.

Werbung

Unterkunfts- und Verpflegungsdienste sind mit einer hohen Risikorate von 86 Prozent nicht weit entfernt. Dies würde eine große Anzahl von Menschen bedeuten, die von ihrem Arbeitsplatz entlassen wurden, was sich nicht nur für Personen als schädlich erweisen würde, die ihren Arbeitsplatz verlieren, sondern auch für dieGesamtwirtschaft.

In einem Interview mit VIAnews , Anthony Zador, Vorsitzender der Neurowissenschaften und Professor für Biologie am Cold Spring Harbor Laboratory warnte, dass einige der „Konsequenzen für die Gesellschaft in vielerlei Hinsicht verheerend sein werden.“

Dies liegt hauptsächlich an der Tatsache, dass „zig Millionen Arbeitsplätze“ verschwinden werden, ohne die Gewissheit zu haben, „durch was sie ersetzt werden, wenn sie durch irgendetwas ersetzt werden.“

Er beeilte sich hinzuzufügen, dass er hier die Schuld auf die „Gesellschaft; es ist nicht die Schuld der Technologie“ legt. Unabhängig davon, wer schuld ist, scheint der Schaden unvermeidlich.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.