Werbung

Avocado bis Halloween: Linguistic Bias in Tech bekämpfen

Unsere Sprache ändert sich ständig. Aber was passiert, wenn unsere Computer in der Vergangenheit feststecken?

Ein Ausschnitt aus dem Quellcode von AlexNet. Utku Kucukduner für IE

"Hey, Siri."

"Alexa?"

"Cortana!?"

Spracherkennungssoftware ist überall. Im Jahr 2020fast zwei Drittel der Amerikaner berichtet über eine Art sprachgesteuerten automatisierten Assistenten. Es ist keine Überraschung, dass diese virtuellen Helfer von künstlicher Intelligenz abgehalten werden – sie sind „Menschen“, die bewusst auf Befehle reagieren.

Spracherkennung fällt unter den Oberbegriff der natürlichen Sprachverarbeitung, einem Bereich der Informatik, der sich auf das Training von KI und Computern konzentriertdas gesprochene und geschriebene Wort erkennen und darauf reagieren.

Aber die Verarbeitung natürlicher Sprache ist es nicht ganz so künstlich wie der Name vermuten lässt – es basiert weitgehend auf dem menschlichen Gehirn.

Millionen von Neuronen laufen das Nervensystem auf und ab, durch den Fluss des Rückenmarks und Ecken und Winkel des Gehirns. Diese Neuronen bewegen Nachrichten zwischen Orten und treffen sich an Synapsen. Synapsen übertragen die Nachrichten zwischen Neuronen, indem sie das Ziel stimulierenNeuronen, der nächste Schritt auf der Reise einer Nachricht.

Das "Nervensystem" von NLP ist bemerkenswert ähnlich. Die "Karte" eines künstlichen neuronalen Netzes sieht aus wie ein Netz, mit Tausenden von Kreisen, die durch eine Reihe von Linien verbunden sind, mit Kreisen verbunden sind, mit Linien verbunden sind und so weiterHier empfängt ein Neuron ein Signal, das als Input bezeichnet wird, führt einige mathematische Transformationen des Inputs durch und spuckt einen Output aus. Die Neuronen treffen sich an „Synapsen“, die die neuronale Verbindung mithilfe einer gewichteten Mittelwertfunktion steuerndurch den Weg der Neuronen und Synapsen, bis er das Ende erreicht und eine endgültige Ausgabe erzeugt.

Es ist alles bemerkenswert menschlich – sogar zu menschlich, denn genau wie Menschen fällt auch NLP oft Voreingenommenheit zum Opfer.

Bei Menschen kann auditive Voreingenommenheit in vielen Formen auftreten. Bestätigungsverzerrung tritt beispielsweise auf, wenn wir nur das hören, was wir hören.wollen zu hören, Details herauszupicken, die bestätigen, was mit unseren Überzeugungen in Einklang steht. Verankerungsfehler treten auf, wenn die erste Information, die wir hören, unsere Wahrnehmung der restlichen Information verändert, wie bei Verhandlungen, wenn der Startpreis die Bühne bereitet fürder Rest des Deals.

Werbung

Die Voreingenommenheit, wie wir Geräusche hören und verarbeiten, geht jedoch viel tiefer in Gebiete, die Rassismus, Sexismus und Fremdenfeindlichkeit beinhalten. A 2010 Studie zu Akzenten zeigte, dass wir Menschen eher danach beurteilen, wie sie sprechen, als nach ihrem Aussehen. Diese Vorstellung von Akzenten, die sich in unsere Eindrücke von der Person einschleichen, hat in der realen Welt ziemlich dramatische Folgen. Eine Studie ergab, dass bei telefonischen Interviews, Menschen mit chinesischem, mexikanischem und indischem Akzent Englisch sind aktiv diskriminiert von Managern, während Personen mit englischem Akzent gleich und manchmal sogar besser behandelt wurden als Personen mit amerikanischem Akzent.

NLPs neigen, wie Menschen, dazu, bestimmte Akzente und andere zu bevorzugen. Eine Studie, “Geschlechts- und Dialektverzerrung in den automatischen Untertiteln von YouTube” untersuchte die Genauigkeit des YouTube-Untertitelsystems, das auf NLP läuft, um das Vorhandensein von Verzerrungen bei der Untertitelung englischer Dialekte zu beurteilen. Die Studie nutzte einen beliebten Trend, bekannt als die Accent Challenge, bei dem Personen aus verschiedenen Teilen derdie Welt las eine Liste vorgegebener Wörter vor – alles von „Avocado“ bis „Halloween“.Voreingenommenheit gegenüber diesen Bevölkerungsgruppen.

Werbung

Die Studie ging noch einen Schritt weiter. Sie untersuchte den Einfluss des Geschlechts auf die Wortfehlerrate. Während der Algorithmus die Sprache der Männer in etwa 40 % der Fälle fälschlicherweise identifizierte, identifizierte er mehr als 50 % der weiblichen SpracheAkzent, Diskrepanzen zwischen weiblicher und männlicher Sprache können bis zu 30 % betragen.

Gender Bias im NLP geht weit über die Fehlidentifikation von Wörtern hinaus. Die Worteinbettung ist ein Zweig des NLP, der sich mit der Darstellung von Wörtern mit ähnlichen Bedeutungen befasst. Es beinhaltet oft das Erstellen eines Feldes voller verstreuter Punkte, wobei Punkte bestimmte Wörter repräsentieren. Zum Beispiel „Abendessen““ und „Mittagessen“ können in einem Flugzeug in der Nähe sein, während „Schuh“ weiter weg wäre.Ein Papier aus dem Jahr 2016 untersuchte gängige Wortassoziationen mit dem Geschlecht anhand einer Worteinbettungsebene. Für „er“ der von der Gruppe verwendete Identifikator zur Bezeichnung von Männern waren die vier Berufe, die am stärksten mit Männern in Verbindung gebracht wurden, Maestro, Skipper, Schützling bzw. Philosoph.

Werbung

Bei Frauen waren die häufigsten Wörter Hausfrau, Krankenschwester, Empfangsdame und Bibliothekar.

Das Team verwendete auch das Wort Einbettungen, um Analogien zu erzeugen — die berühmten „x ist zu y wie a zu b“-Fragen aus viel zu vielen SAT-Vorbereitungskursen. Unter den verzerrten Analogien, die erzeugt wurden, ist der Satz „Vater ist für einen Arzt wie eine Mutter für eine Krankenschwester“ und „Mann ist“für Computerprogrammierer wie eine Frau für eine Hausfrau." Die Daten, die zur Erstellung des Wortes Einbettung verwendet wurden, stammen aus Google News-Artikeln, was darauf hindeutet, dass diese Artikel veraltete Geschlechterstereotypen und -rollen aufrechterhalten. Diese Muster spiegeln einen enttäuschenden Trend innerhalb des NLP wider. Computer lernen archaische MenschenVorurteile: Dass Frauen die Hausfrauen und ein unterwürfiges Geschlecht sind, während Männer die innovativen Ernährer sind.

Rassismus ist ein weiteres weit verbreitetes Thema in der Welt des voreingenommenen NLP. In "Rassenunterschiede bei der automatischen Spracherkennung" ein Forschungsteam untersuchte die Leistung von fünf hochmodernen automatischen Spracherkennungstechnologien ASR zwischen weißen und schwarzen Probanden. Die Studie untersuchte einige der heute gebräuchlichsten ASR-Technologien – entwickelt von Amazon, Apple, Google, IBM und Microsoft.

Werbung

Jeder zeigte statistisch signifikante Rassenunterschiede.

Die durchschnittliche Wortfehlerrate bei weißen Probanden lag bei 0,19, während die Wortfehlerrate bei schwarzen Probanden bei 0,35 lag, fast doppelt so hoch. Für Apple, das am schlechtesten abschneidende ASR, lag die Wortfehlerrate bei 0,45 bei Schwarzen, aber nur0,23 für weiße Personen.

In der Studie wird African American Vernacular English AAVE als Grund für die Diskrepanz genannt. Viele Datenbanken enthalten keine ausreichenden Teile von AAVE-Soundbeispielen, obwohl es sich um einen anerkannten englischen Dialekt mit Millionen von Muttersprachlern handelt.

African American Vernacular English wurde aus der Sklaverei geboren. Wenn Menschen entführt und in die Sklaverei verkauft wurden, wurden sie oft von anderen getrennt, die ähnliche Sprachen und Dialekte sprachen, und gezwungen, auf Plantagen mit denen zu arbeiten, mit denen sie Schwierigkeiten hatten, sich zu verständigen. Zwei Theorien entstanden um die Entstehung von AAVE zu erklären: die Dialekt-Hypothese und die Kreol-Hypothese. Die Dialekt-Hypothese schlägt vor, dass der Dialekt entstanden ist, weil versklavte Menschen mit südlichen Weißen in Kontakt kamen und aus der Not heraus Englisch lernten, wodurch ein Zweig entstand, der später zu AAVE wurdeDie kreolische Hypothese legt nahe, dass die Bildung des Dialekts eher ein Mischtopf war; westafrikanische Sprachen und Englisch kombinierten sich zu einer kreolischen Sprache, die mit Standardenglisch konvergierte, um AAVE zu bilden.

Werbung

Heute wird AAVE sehr genau untersucht. Manche Leute nennen es „kaputt“, „faul“ und ungrammatikalisch, was eng mit schlechter Bildung und mangelnden Sprachkenntnissen in Verbindung gebracht wird. Die negative Konnotation von AAVE wurzelt im Rassismus.per Definition, überwiegend von Afroamerikanern gesprochen, einer Gruppe, die in der Vergangenheit stereotypisiert und ausgebeutet wurde.Die Diskrepanzen zwischen der NLP-Leistung bei weißen und schwarzen Personen halten diese Vorstellung aufrecht, dass AAVE ein „kleiner als“-Dialekt oder ein Zeichen von „niedriger“ istBildung.“ AAVE ist als offizieller Dialekt des Englischen anerkannt und hat sich über Jahrhunderte so entwickelt, dass sie unterschiedliche grammatikalische Formate, Slang und Syntax aufweist – die Facetten jeder „gültigen“ Sprache.

Die Sprache entwickelt sich ständig weiter. Der Vorteil von lebenden Sprachen besteht darin, dass sie sich regelmäßig aktualisieren und anpassen, um neue Ideen, Technologien und Innovationen zu integrieren oder sicherzustellen, dass wir den neuesten Slang aus Ihrem Lieblings-TikTok-Video verstehen. Und unsere KI-Anforderungensich daran anpassen.Es sind Menschen, die die Wörter und Satzstrukturen programmieren in unsere Datensätze und fügen Sie sie den Sprachproben hinzu. Im Gegensatz zu Menschen müssen unsere KI-basierten Systeme zur Verarbeitung natürlicher Sprache keine Hunderte oder gar Tausende von Jahren sozialisierter Verzerrung überwinden. Sie können leicht durch Verbesserung und Erweiterung von Datensätzen angepasst werden– was bedeutet, dass wir NLP so programmieren können, dass Sprachverzerrungen schneller als organisch für unsere fast 8 Milliarden Einwohner beseitigt werden.

Werbung

Was braucht es also, um vielfältigere Datensätze in unsere sich ständig weiterentwickelnden NLPs zu integrieren?

Dieser Artikel ist Teil einer Serie über Verzerrungen in der künstlichen Intelligenz. Siehe den nächsten Teil hier.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.