Werbung

Von Schwarz zu Weiß zu Technicolor: DeBiasing Rassism in Computer Vision

Computer Vision ist ein ständig wachsendes Feld in der KI, aber es gibt ein großes Problem – es ist rassistisch.

Das Sehen ist ein Wunder – die Beziehung von Reflexion, Brechung und Botschaften, die von den Nerven im Gehirn entschlüsselt werden.

Wenn dusehen Sie sich ein Objekt an, Sie starren auf eine Lichtreflexion, die in Wellenlängen in Ihre Hornhaut eintritt. Beim Eintritt in die Hornhaut wird das Licht in Richtung der dünnen, dünnen Augenlinse gebrochen oder gebogen, die das Licht weiter bricht. Die Linse ist aFeinabstimmung: Er fokussiert das Licht direkter auf die Netzhaut und bildet einen kleineren, fokussierteren Strahl. Auf der Netzhaut stimuliert das Licht Photorezeptorzellen, die Stäbchen und Zapfen genannt werden. Denken Sie an die Stäbchen und Zapfen und mikroskopischen Translatoren – sie verändern das Lichtin elektrische Impulse, die an das Gehirn gesendet werden.

Die Impulse schießen den Sehnerv hinunter zum visuellen Kortex, wo das Bild mit der rechten Seite nach oben gedreht wird. Der Kortex interpretiert dann diese Signale und ermöglicht es Ihnen, sinnvolle Entscheidungen darüber zu treffen: "Schau, es ist ein Hund!"

Das Sehen ist für den Menschen offensichtlich nichts Neues, aber jetzt lernen auch Computer zu sehen. Tatsächlich stehen sie am Beginn eines neuen Zeitalters – eines Zeitalters des Sehens.

Computer Vision ist eine Form der künstlichen Intelligenz KI, die darauf abzielt, Computern beizubringen, Bilder zu verstehen und zu interpretieren.

Die Anfänge der Computer Vision Geschichte reichen bis in die späten 1950er Jahre zurück, mit zwei Wissenschaftlern, einem feuernden Neuron und einer Katze.

David Hubel und Torsten Wiesel ermittelten die Reaktion der visuellen Erfahrung einer Katze sehenkleine Lichtflecken oder ein schwarzer Punkt auf einem klaren Glasdia projiziert auf eine Leinwand und wie Neuronen in höherfunktionellen Bereichen des Gehirnsreagierte auf den Anblick. Nach vielen frustrierenden Versuchen ohne hilfreiche Lektüre machten die beiden eine zufällige Entdeckung. Als die Katzen sahen zu, einer der Forscher hat den Glasobjektträger versehentlich etwas zu weit bewegt und seine schwache Kante sichtbar gemacht. Das Eine einzelne Linie, die sich in einem bestimmten Winkel über den Bildschirm bewegte, führte dazu, dass das Neuron der Katze feuerte.Dieser eine Fehler hat unsere Sichtweise auf die visuelle Verarbeitung verändert.

Werbung

Wie?Die Forscher fanden heraus, dass bestimmte Neuronen im visuellen Kortex dafür verantwortlich sind, auf bestimmte Orientierungen wie Linien und Winkel zu reagieren.Diese und spätere Studien zeigten, wie das visuelle System ein Bild aus einfachen Reizen in komplexere Darstellungen aufbaut.That ein glücklicher Unfall die Grundlage aller Deep-Learning-Modelle geschaffen, insbesondere derjenigen, die in der Computer Vision verwendet werden.

In den 1980er Jahren nahm die Entwicklung von Computer Vision zu. 1982 etablierte David Marr eine algorithmische Struktur für die Vision, die Ecken, Kanten und andere unterschiedliche visuelle Merkmale identifizieren konnte. Kunihiko Fukushima'sNeocognitron erstellt ein Modell für ein selbstorganisierendes neuronales Netzwerk, sowohl einfach als auch komplex, das Muster erkennen kann. Diese verschachtelten neuronalen Netzwerke erwiesen sich bei der Bilderkennung als sehr effektiv, waren jedoch schwer auf hochauflösende Bilder anzuwenden, was das Training des Netzes sehr zeitaufwändig machte.

Werbung

Also, was hat Computer Vision wirklich so erfolgreich gemacht?

Ein KI-Wettbewerb im Jahr 2012.

Zu diesem Zeitpunkt lagen die typischen Top-5-Fehlerraten für die visuelle Erkennung bei etwa 26% die Top-5-Fehlerrate beträgt der Anteil der Testbilder, für die das richtige Label zu den 5 wahrscheinlichsten gehört, und es sah so aus, als ob sich dieser Prozentsatz nicht ändern würde.Dann kam AlexNet vorbei. Das Team der University of Toronto hat ein konvolutionelles neuronales Netzwerk entwickelt, ein Deep-Learning-Modell, das Bilder identifiziert, indem es Elementen eines Bildes Gewichtungen und Verzerrungen zuweist, die ausgelöscht die Fehlerquoten der Vergangenheit, mit einer Top-5-Fehlerquote von 15,3%.

Wir sind an einem Punkt angelangt, an dem Computer wie Menschen eine Vision haben. Aber im Lebenslauf geht es nicht darum, was Computer sehen können, sondern was sie nicht sehen können.

Werbung

Computer Vision ist von Deep Learning abhängig, einem Teilgebiet des maschinellen Lernens. Um das „Sehvermögen“ eines Computers fein abzustimmen, muss er mit Daten gefüttert werden – viele Daten. Aber es gibt ein Problem mit diesen Daten: Es ist oftvoreingenommen.

2018 veröffentlichte Joy Buolamwini „Gender Shades: Intersection Accuracy Disparities in Commercial Gender Classification“. Es klingt wie ein Bissen, aber Buolamwinis Gender Shades Das Projekt hat die Sichtweise auf Hautton und Computer Vision verändert. Die Studie dokumentierte die Genauigkeit von drei wichtigen Algorithmen zur Geschlechterklassifizierung, von denen einige der beliebtesten und am häufigsten verwendeten einschließlich Microsoft und IBM in vier Klassifikationsgruppen sind: heller männlich, heller weiblich,dunklere Männer und dunklere Frauen. Buolamwini stellte fest, dass jedes Programm bei hellhäutigen Personen insgesamt eine höhere Genauigkeit aufwies, wobei der Fehler zwischen heller und dunklerer Haut zwischen 11,8 % und 19,2 % lagbei dunklerer Haut fast genauso genau wie bei hellhäutigen.

Werbung

Dann teilte Buolamwini die Genauigkeit nach Geschlecht und Hautton auf. Die Algorithmen von Microsoft und IBM hatten die höchste Genauigkeit bei hellhäutigen Männern. Microsoft hatte sogar eine Genauigkeitsrate von 100 % und die niedrigste, Face++, war 99,2 % genau.

Aber dann zeigten die Programme einen beunruhigenderen Trend.

Bei Frauen mit dunklerer Hautfarbe waren die Genauigkeitsraten um bis zu 34 % niedriger als bei Männern mit hellerer Hautfarbe. Tatsächlich waren 93,6% der Gesichter, die von Microsoft falsch geschlechtsspezifisch zugeordnet wurden, dunkelhäutig.

Buolamwini untersuchte die Ergebnisse in spezifischeren Tönen mit dem Fitzpatrick-Hauttyp-System und stellte fest, dass die Genauigkeit bei der Verdunkelung des Hauttons bei Frauen im Wesentlichen ein Münzwurf war: ungefähr 50%.

Außerdem kann bildidentifizierende KI bei der Bildklassifizierung leicht schädlichen Stereotypen zum Opfer fallen. A Studie 2021 von der Carnegie Mellon University und der George Washington University entwickelten einen Ansatz zur Erkennung verzerrter Assoziationen zwischen Konzepten wie Rasse, Geschlecht und Beruf in Bilddatenbanken. Sie analysierten die Ergebnisse in zwei CV-Modellen: iGPT und SimCLR. Im Rahmen des Gender-Career-Tests, das den Zusammenhang zwischen Geschlecht und Berufsattributen misst, wurden Männern Begriffe wie „Büro“ oder „Geschäft“ zugeordnet, während Frauen „Kinder“ und „Zuhause“ zugeordnet wurden. Diese Ergebnisse spiegeln einen unglaublich starken Bias wider.

Werbung

Die Forscher fanden heraus, dass beide statistisch signifikante rassistische Vorurteile aufwiesen. Beim Testen von Rassen auf die Assoziation mit Objekten assoziierten iGPT und SimCLRv2 weiße Menschen mit Werkzeugen, während Schwarze mit Waffen verglichen wurden. Beide Modelle fanden "arabisch-muslimische" Personen als "unangenehm"“ verglichen mit „europäischen Amerikanern“, während die iGPT feststellte, dass hellere Hauttöne „angenehmer“ waren.

Diese Idee, dass hellere Hauttöne angeblich „angenehmer“ sind, wurde auch auf vielen Social-Media-Plattformen überprüft und spiegelt ein tieferes Problem des Kolorismus in der Gesellschaft wider. Im Jahr 2017 die beliebte Fotobearbeitungs-AppFaceApp geriet unter Beschussfür seinen „heißen“ Filter – der behauptete, Benutzer „heißer“ aussehen zu lassen – durch Aufhellen des Hauttons. Mit anderen Worten, um die Menschen besser aussehen zu lassen, machte das KI-System die Menschen leichter.

Der Kolorismus hat eine lange Geschichte des Schadens von BIPOC-Gruppen und spielt auch heute noch eine aktive und destruktive Rolle in der Gesellschaft. Kolorismus wird als eine Form der Diskriminierung definiert, bei der hellhäutige Personen günstiger behandelt werden als dunkelhäutige. Vieldieser Diskriminierung entstand aus Ideen der weißen Vorherrschaft und des Eurozentrismus. Forschungen deuten darauf hin, dass die Sklaverei in den Vereinigten Staaten zwar weit verbreitet war, hellhäutigere Sklaven mit typisch „europäischen“ Merkmalen jedoch weniger hart behandelt oder eine etwas "günstigere" Behandlung erhalten als ob jede Behandlung als Sklave als günstig angesehen werden könnte.

Werbung

Einer der berüchtigtsten Beispiele für diese Diskriminierung in den Vereinigten Staaten war der Papiertütentest. Wenn die Haut einer schwarzen Person dunkler als eine Papiertüte wäre, dann durften sie bestimmte Räume nicht betreten oder erhielten keine Arbeitsmöglichkeiten; wenn ihre Hautleichter wäre, würden sich diese Möglichkeiten auf magische Weise eröffnen. Im Laufe der Zeit sind diese Vorstellungen von Kolorismus in jeden Aspekt des amerikanischen Lebens eingedrungen.Schädigung der Berufsaussichten, der psychischen Gesundheit, Gerichtsverfahren und mehr.

Und die KI verewigt und setzt diese Stereotypisierung und schlechte Behandlung fort.

Wie können wir das also beheben? Wie arbeiten wir daran, Computer Vision integrativer und weniger voreingenommen zu machen?

Die Antwort liegt darin, die Datenbanken zu reparieren.

Die Genauigkeit der auf maschinellem Lernen basierenden KI hängt vollständig von den Daten ab, mit denen sie gefüttert wird. Wenn Sie ein Programm mit Millionen von Bildern von Schildkröten füttern, wird es wirklich gut darin, Bilder von Schildkröten zu identifizieren. Aber wenn Sie es zeigenEinzelbild einer Schlange, das Modell wird nicht wissen, was es ist.

Darum geht es beim Rennen. Viele Bilddatenbanken, einschließlich ImageNet, eine der meistgenutzten Bilddatenbanken, sind überwiegend weiß und hellhäutig. Bei den Geschlechtstönen stellte Buolamwini fest, dass einige Datensätze zu über 85 % hellhäutig waren, in einer Welt, in der Milliarden von Menschen dunklere Hauttöne haben.Einfach gesagt, unseren Datenbanken fehlt es an Vielfalt, und die künstliche Intelligenz versagt daran. Die aktuelle Farbskala, die in der KI verwendet wird, der Fitzpatrick-Hauttyp, wurde nicht einmal dafür geschaffen, den Hautton zu identifizieren, sondern zu klassifizierenHauttypen, die am stärksten für Sonnenbrand gefährdet waren. Dieses System vereinfacht die Farbe stark und kategorisiert den Farbton in nur sechs Gruppen. Derzeit überarbeiten Google und andere Gruppen die Hautklassifizierungssoftware in der Hoffnung, die Art und Weise, wie Computer verschiedene Rassen sehen, zu optimieren.

Jetzt erkennen wir mehr denn je endlich die Schönheit und Bedeutung der Vielfalt in unserer Gesellschaft an. In den 1960er und 1970er Jahren sahen wir Studenten Kämpfe für Ethikstudien an Universitäten. Wir sehen Kulturparks wie den San Pedro Creek KulturparkFeiern Sie das vielfältige Erbe. Und jetzt ist die Vielfalt der Belegschaft an einem Allzeithoch in den Vereinigten Staaten

Warum also nicht diese Vielfalt in die KI einbringen?

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.