Werbung

Facebooks KI dachte, in einem Video eines Schwarzen gehe es um Primaten

Es hat sich entschuldigt, aber es kann eine Restabweichung im System geben.

Facebook hat viele mit seiner KI im Stich gelassen s_cphoto/iStock

Künstliche Intelligenz KI ist die nächste Grenze der Technologie und verspricht eine ganz neue Zukunft für die gesamte Menschheit. Während sich viele über die dystopische Möglichkeit gewundert haben, dass KI die Welt übernimmt, sind es die inhärenten Vorurteile, mit denen sie aufgebaut werden, die die größere Sorge sind.

Kürzlich hat ein Benutzer eine markiertKI-generierte Aufforderung auf Facebook das ein Video über einen Schwarzen als Inhalt "über Primaten" bezeichnete. Während dies zu einem Aufruhr in den sozialen Medien führte, der eine Entschuldigung von der Firma erhielt, die behauptete, dass es bei KI-Algorithmen noch "Fortschritte zu machen" gäbe, ist die RealitätDie Frage ist, was sind die anderen anstößigen und stark voreingenommenen Dinge, die Entwickler bei Facebook unwissentlich in ihre Programme einfügen?

Ein Bericht aus dem Jahr 2019 von MIT Tech Review zeigte, dass die Adserving-KI des Unternehmens schwerwiegende Verzerrungen aufwies. Während die KI Anzeigen für zwei Milliarden Nutzer lieferte, zeigte die KI Anzeigen für Vorschullehrer und Sekretärinnen hauptsächlich für Frauen, während Hausmeisterpositionen und Taxifahrerpositionen an Minderheitengemeinschaften serviert wurdenB. im Wohnungssektor, zeigte die Plattform weißen Nutzern Verkaufsanzeigen, und Minderheiten wurden Anzeigen zur Mietersuche gezeigt. Obwohl sich das Unternehmen dann verpflichtet hatte, die Voreingenommenheit zu korrigieren,Geschlechtsverzerrung fortgesetzt auch im Jahr 2021.

Das Unternehmen hat sich Prüfungen seiner Forschungs- und KI-Modelle widersetzt und im Jahr 2020 sogar interne Teams eingerichtet, um zu untersuchen, ob rassistische Voreingenommenheit betrifft Minderheiten auf seiner Plattform sowie Instagram, einer App zum Teilen von Fotos und Videos, die Facebook besitzt. Aber seine Bemühungen haben nicht die gewünschten Ergebnisse gebracht, wie kürzlich gesehen wurde.

Es wäre unfair, in diesem Fall Facebook herauszuheben. Im Jahr 2015 wurde festgestellt, dass die Algorithmen von Google ebenso erschreckend nachdem sie Fotos als die von 'Gorillas' gekennzeichnet hatten. Ein neuerer Bericht von Algorithmus-Überwachung, zeigte, dass das Label Vision Cloud von Google die Bezeichnung eines Instruments von "Gerät" in "Pistole" geändert hat, als sich der Hautton verdunkelte. Das Unternehmen entließ die KI-Ethikforscherin Timnit Gebru, nachdem sie auf vererbte Vorurteile in der des Unternehmens hingewiesen hatte.Sprachlernmodelle.

Werbung

KI-Algorithmen von einer anderen Social-Media-Site, Twitter, zeigten ihre Voreingenommenheit, wenn Bilder mit schwarzen und weißen Personen enthalten waren wurden beschnitten, um die hellere Haut zu begünstigen. Das Unternehmen reagierte mit der Einführung eines Bug-Bounty-Programm um Benutzer zu ermutigen, Vorurteile auf seiner Plattform zu finden und diese zu melden. Wir haben Facebook kontaktiert, um zu erfahren, wie sie reagieren wollen, und werden den Beitrag aktualisieren, wenn eine Antwort eingeht.

Obwohl es einfacher wäre, der Technologie die Schuld zu geben, ist es ziemlich klar, dass die Voreingenommenheit in uns steckt und dass dort mehr Bereinigungen erforderlich sind, bevor die Codezeilen in Zukunft sortiert werden.

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Nachrichten auf dem Laufenden

Geben Sie einfach Ihre E-Mail ein und wir kümmern uns um den Rest :

Mit der Anmeldung stimmen Sie unseren zuNutzungsbedingungen und Datenschutzrichtlinie. Sie können sich jederzeit abmelden.