Werbung

Untersuchungen haben ergeben, dass der Hass-Sprachdetektor von Google rassistisch voreingenommen ist

Der Algorithmus für künstliche Intelligenz hat eine schwarze Person zweimal häufiger markiert.

Hassrede kann eine toxische Umgebung für Menschen im Internet schaffen und wird zu einem wachsenden Problem, so dass Social-Media-Plattformen einem zunehmenden Reaktionsdruck ausgesetzt sind.

Dies kann jedoch auch ein Problem sein, da das automatische Entfernen dieser Art von Inhalten die Türen zu potenziell weiteren Problemen öffnet, da diese Lösung bereits marginalisierte Stimmen weiter unterdrückt. Kurz gesagt, der Vorgang ist schwierig.

VERBINDUNG: DIESE KI WEISS GENAU, WIE RASSIST UND SEXIST SIE SEIN KÖNNEN

Dennoch hat Google bereits 2016 sein Bestes getan, um einen Algorithmus für künstliche Intelligenz zu entwickeln, mit dem Hassreden auf Social-Media-Plattformen und Websites überwacht und verhindert werden sollen. Eine kürzlich von Mitarbeitern der University of Washington durchgeführte Studie ergab jedoch, dass es sich um dasselbe Tool handeltrassistisch voreingenommen; Profiling von Tweets von Afroamerikanern.

Der voreingenommene Hasssprachendetektor

Wenn Sie nun ein Tool für maschinelles Lernen trainieren, ist der richtige Datensatz wichtig, und der Google-Algorithmus für Hassreden war nicht anders. Die Entwickler des Unternehmens umfassten eine Datenbank mit weit über dem Umfang. 100.000 Tweets, die waren mit "giftig" gekennzeichnet von Googles API namens Perspective. Dieser toxische Inhalt wurde dann zum Leitlicht für den Algorithmus, indem er das, was er „gelernt“ hat, verwendet, um „guten Inhalt“ und alles, was unangenehm, unhöflich oder respektlos ist, zu identifizieren und zu kennzeichnen.

Die Zeitung der University of Washington stellte fest, dass das Google-Tool eine verdächtig hohe Rate an schwarzen Menschen aufweist, obwohl der größte Teil der Sprache der Tweets als nicht schädlich eingestuft wurde.

Interessanterweise, als das Werkzeug getestet wurde 5,4 Millionen Tweets Sie stellten fest, dass das Tool zweimal häufiger Beiträge von Afroamerikanern kennzeichnet. Es scheint, dass das Google-Tool mit Tweets zu kämpfen hat, die in afroamerikanischem Englisch verfasst sind.

Werbung

Auswahl der richtigen Daten

Wie oben erwähnt, sind die richtigen Daten sehr wichtig. Sie sind in Bereichen, in denen es um Rassen geht, noch wichtiger. Das Hauptproblem beim Google-Algorithmus besteht darin, dass es an angemessenem Verständnis und Kulturbewusstsein mangelt, um den Afroamerikaner richtig zu identifizierenUmgangssprachliches Englisch. Kurz gesagt, AAE wurde nicht ordnungsgemäß in den Datensatz eingeführt, was wiederum zu einer Verzerrung führte.

Die Lösung? As angegeben im Bericht: „Wir haben Dialekt- und Race-Priming eingeführt, zwei Möglichkeiten, um die Annotator-Verzerrung zu verringern, indem der Dialekt eines Tweets in der Datenanmerkung hervorgehoben wird, und zeigen Sie, dass dies die Wahrscheinlichkeit, dass AAE-Tweets als anstößig eingestuft werden, erheblich verringert. ”

Das Team der University of Washington ist der Ansicht, dass den verwirrenden Auswirkungen des Dialekts besondere Aufmerksamkeit gewidmet werden sollte, um unbeabsichtigte rassistische Vorurteile bei der Erkennung von Hassreden zu vermeiden.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.