Werbung

Diese KI weiß genau, wie rassistisch und sexistisch Sie sein können

Für viele Innovatoren dient die Technologie dazu, Lücken zwischen verschiedenen Disparitäten zu schließen. Dies geht weiter in den Bereich der künstlichen Intelligenz. Algorithmen, die eingestellt werden, würden theoretisch Vorurteile beseitigen und Frauen und Männern aller Rassen die gleichen Chancen bei der Arbeit gebenAlles in allem handelt es sich um einen Roboter und nicht um einen Menschen. Dies könnte sogar für die Polizei gelten, da bestimmte Minderheiten häufig die Hauptlast exzessiver Polizeikräfte auf der ganzen Welt tragen.

Wie gut eine KI unsere Stereotypen aufgreifen könnte

In den letzten Jahren ist es AIs gelungen, dank schnellerem maschinellem Lernen immer menschlicher zu werden. Diese breitere Informationsbasis kann jedoch dazu führen, dass eine KI eine größere Basis menschlicher Gedanken erlangt - einschließlich unserer Vorurteile.

[Bildquelle : Pixabay ]

Die Forscher haben beschlossen, diese Verbindung zu testen, um festzustellen, wie gut eine KI unsere Stereotypen aufgreifen kann. Das Team bestand aus Forschern aus der ganzen Welt, darunter mehrere von der Princeton University.

"Glaube nicht, dass AI eine gute Fee ist" sagte Die Co-Autorin der Studie, Joanna Bryson. Bryson arbeitet als Informatikerin an der University of Bath in Großbritannien und der Princeton University. "AI ist nur eine Erweiterung unserer bestehenden Kultur."

Wortassoziationstests

Das Team fand Inspiration in der bereits existierenden Psychologie. Sie untersuchten implizite Assoziationstests IATs. In einem IAT erscheint kurz ein Wort auf einem Bildschirm, und die Geschwindigkeit, mit der Menschen auf dieses Wort reagieren, zeigt ihre unbewussten Assoziationen. Frühere IATs habenfanden heraus, dass Namen wie "Brad" und "Courtney" mit positiven Wörtern wie "happy" assoziiert sind. Namen, die mit Farbgemeinschaften assoziiert sind, werden jedoch negativer assoziiert.

Das Team entwickelte ein KI-System mit einem ähnlichen assoziativen Stil. Bryson und ihre Kollegen nannten es den Worteinbettungsassoziationstest WEAT. Sie beginnen mit der Definition eines Wortes basierend auf dem Kontext, in dem das Wort verwendet wird. Zum Beispiel: "Eis "und" Dampf "hätten ähnliche Einbettungen, da sie häufig mit" Wasser "verwendet werden. Angesichts der Tatsache, dass der Computer diese Wörter als eine Reihe von Nullen und Einsen betrachtet, unterscheidet sie sich ein wenig von dem intuitiven Verständnis, das Menschen von bestimmten habenWortpaarungen.

Werbung

[Bildquelle : Pixabay ]

"Ein Hauptgrund, warum wir uns für das Studium von Worteinbettungen entschieden haben, ist, dass sie in den letzten Jahren auf spektakuläre Weise dazu beigetragen haben, Computern dabei zu helfen, die Sprache zu verstehen." sagte Arvind Narayanan, Informatiker an der Princeton University.

Das Papier zeigt, dass gebräuchliche Wortassoziationen zwar statistisch und logisch sein können, sich jedoch immer noch beunruhigende Vorurteile einschleichen können. Wörter wie "Frau" wurden mit Geisteswissenschaften und Gegenständen des Hauses in Verbindung gebracht. "Männlich" und "Mann" wurden mit Mathematik assoziiertund Wissenschaften.

Das von den Forschern entwickelte Tool für maschinelles Lernen, das auf einem "Common Crawl" -Korpus trainiert wurde. Es wurden Milliarden von Wörtern aus online veröffentlichten Materialien verwendet. Es wurde auch auf Daten von Google News trainiert. Für das Team kamen die Ergebnisse nicht als ErgebnisÜberraschung.

Sandra Wachter, Forscherin für Datenethik und Algorithmen in Oxford sagte "Die Welt ist voreingenommen, die historischen Daten sind voreingenommen, daher ist es nicht verwunderlich, dass wir voreingenommene Ergebnisse erhalten."

Werbung

Bryson auch in einem Interview mit notiert der Wächter dass "viele Leute sagen, dass dies zeigt, dass KI Vorurteile hat. Nein. Dies zeigt, dass wir Vorurteile haben und dass KI es lernt."

Dieses maschinelle Lernsystem kann uns sicherlich auf unsere Fehler hinweisen, aber macht dies AIs von Natur aus rassistisch oder sexistisch? Das Team glaubt das nicht. Während Menschen über Gründe lügen können, jemanden nicht einzustellen, kann ein Algorithmus dies nicht. Die Zahlenund Informationen, die durch sie verarbeitet werden, sind zwar umfangreich, entfernen jedoch immer noch Gefühle und erlernte Vorurteile aus ihren Systemen.

Die Ergebnisse wurden in der April-Ausgabe des veröffentlicht. Wissenschaft Tagebuch

SIEHE AUCH : Wird künstliche Intelligenz das Ende der menschlichen Intelligenz bedeuten?

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.