Werbung

Gesichtserkennungssoftware weist eine Verzerrung auf, neue Regierungsberichte stellen fest

Afroamerikaner und Asiaten wurden 100-mal häufiger falsch identifiziert als Kaukasier.

Gesichtserkennungssysteme zeigten eine Tendenz bei der Identifizierung und Zuordnung von Farbpersonen, wie eine neue Bundesstudie zeigt.

Die wegweisende Studie wirft ein negatives Licht auf Software, die zunehmend von Strafverfolgungsbehörden im ganzen Land verwendet wird.

VERBINDUNG: AI FACIAL RECOGNITION SOFTWARE WURDE VERWENDET, UM EINEN MORDVERDÄCHTIGEN IN CHINA ZU FANGEN

Afroamerikaner, Asiaten, die 100-mal häufiger falsch identifiziert werden

Die Studie des National Institute of Standards and Technology ergab, dass Afroamerikaner und Asiaten je nach individuellem Algorithmus bis zu 100-mal häufiger durch Gesichtserkennungssoftware falsch identifiziert wurden als Kaukasier. Unter den in den USA entwickelten Algorithmen hatte die indianische Demografiedie höchsten Raten von Fehlalarmen.

Die Studie ergab auch, dass afroamerikanische Frauen die höchsten Raten an falsch positiven Ergebnissen für Eins-zu-Eins-Übereinstimmungen aufwiesen, die üblicherweise von verwendet werden. Strafverfolgung um Millionen von Personen in einer Datenbank nach einem Verdächtigen zu durchsuchen. Beim NIST-Test wurde nur eine FBI-Datenbank verwendet, die 1,6 Millionen inländische Fahndungsfotos enthält.

" Unterschiede bei falsch positiven Ergebnissen beim Eins-zu-Viele-Abgleich sind besonders wichtig, da die Konsequenzen falsche Anschuldigungen beinhalten können ", sagte der NIST in a Pressemitteilung Hervorhebung der Ergebnisse der Studie. Der NIST stellte fest, dass die Ergebnisse von Algorithmus zu Algorithmus unterschiedlich waren, und sagte, dass "die gerechtesten auch zu den genauesten zählen".

NIST untersuchte 189 Algorithmen

NIST führte die Studie im Rahmen seines Vendor Test-Programms zur Gesichtserkennung durch, in dem es bewertet. Gesichtserkennung Algorithmen von Softwareunternehmen und akademischen Entwicklern zu ihrer Fähigkeit, Aufgaben auszuführen. In dieser Studie wurden vier Fotosammlungen mit 18,27 Millionen Bildern von 8,49 Millionen Personen verwendet. Alle Bilder stammten vom State Department, Department of Homeland Securityund das FBI.

Das NIST testete 189 Softwarealgorithmen, die von 99 Entwicklern eingereicht wurden, von denen die meisten Unternehmen waren. NIST untersuchte, wie gut die Algorithmen mit Fotos derselben Person übereinstimmten, die üblicherweise zum Entsperren eines Smartphones oder zum Überprüfen eines Passes verwendet werden"Eins-zu-Eins" -Matching. Die Regierungsbehörde testete auch die Fähigkeit des Algorithmus, eine Person auf einem Foto mit Bildern in einer Datenbank abzugleichen. Bekannt als "Eins-zu-Viele" -Matching, kann es verwendet werden, um eine Person von zu identifizierenInteresse.

Werbung

„Bei einer Eins-zu-Eins-Suche kann ein falsches Negativ nur eine Unannehmlichkeit sein - Sie können nicht in Ihr Telefon gelangen, aber das Problem kann normalerweise durch einen zweiten Versuch behoben werden“, so Patrick Grother, Informatiker bei NISTund der Hauptautor des Berichts: "Aber ein falsches Positiv bei einer Eins-zu-Viele-Suche führt zu einer falschen Übereinstimmung auf einer Liste von Kandidaten, die eine weitere Prüfung rechtfertigen."

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.