Werbung

Weibliche Sprachassistenten verstärken schädliche Geschlechterstereotype, sagt UN

Ein neuer Bericht fordert Technologieunternehmen auf, Verantwortung zu übernehmen.

Sprachaktivierte Assistententechnologie wie Siri und Alexa ist am häufigsten so programmiert, dass sie eine weibliche Stimme hat. Aber jetzt hat die UNO große Technologieunternehmen aufgefordert, dies zu ändern.

In a Bericht genannt " Ich würde rot werden, wenn ich könnte: Geschlechterunterschiede bei digitalen Fähigkeiten durch Bildung schließen "Die Vereinten Nationen fordern Unternehmen wie Google, Amazon, Apple und Microsoft auf, digitale Assistenten standardmäßig nicht mehr weiblich zu machen.

VERBINDUNG: ALEXA, CORTANA, SIRI? WIE WÄHLEN SIE EINEN SMART VOICE ASSISTANT FÜR IHR SMART HOME

Sie sagen, dass dies schädliche Stereotypen von Frauen als unterwürfig verstärkt und eine Möglichkeit für verbalen Missbrauch ohne Konsequenz bietet.

Der Bericht empfiehlt, dass die Stimmen geschlechtslos sind - etwas, was Google versucht hat, indem seine Stimmen eher orange und rot als männlich oder weiblich gekennzeichnet werden.

Frauen brauchen einen besseren Zugang zu technischen Fähigkeiten

Der Bericht stellt außerdem fest, dass Frauen 25 Prozent weniger über grundlegende digitale Fähigkeiten verfügen als Männer, und fordert leistungsstarke Technologieunternehmen auf, diese Kluft zu beseitigen. Sie müssen nicht weit ins Internet gehen, um ein Beispiel für Menschen zu finden, die Sprache missbrauchen.aktivierter Assistent wie Siri.

Während der Missbrauch problematisch ist, sind es auch die Antworten, mit denen die Systeme reagieren sollen.

Irgendwann hätte das Anrufen von Siri als Schlampe die Antwort "Ich würde rot werden, wenn ich könnte" erhalten. Es wird jedoch angenommen, dass die Antwort jetzt geändert wurde.

Die Tabelle aus dem folgenden Bericht zeigt die Reaktionen auf verschiedene beleidigende Namen, die an vier der wichtigsten Sprachassistenten gerichtet wurden.

Quelle : Unesco

Jetzt ist die Zeit für Veränderungen

Die Ergebnisse sprechen für sich, dass es wesentliche Änderungen geben muss. Dies ist genau der Zeitpunkt, an dem die Anforderungen an die für diese Geräte verantwortlichen Unternehmen gestellt werden müssen, da sie sich in unserem Leben immer mehr festsetzen.

Werbung

Amazon ist gerade angeblich ein Gerät erstellen das wird in der Lage sein, Ihre Stimmung zu verstehen. Mithilfe der Spracherkennung kann das tragbare Handgelenkgerät lernen, wie sich Ihre Stimme unter verschiedenen emotionalen Umständen ändert, und Ratschläge zum Umgang mit sozialen Situationen geben.

Algorithmen für künstliche Intelligenz haben bereits rassistische und geschlechtsspezifische Vorurteile gezeigt, aber wir müssen uns daran erinnern, dass diese Systeme nicht neutral geboren wurden. Diese Vorurteile beruhen auf der Art und Weise, wie sie entwickelt wurden, und den Datensätzen, mit denen sie gespeist werden.

STEM-Pfade früh

Wie viele darauf hingewiesen haben, besteht der beste Weg, mit dieser Tendenz umzugehen, darin, dass Teams mit unterschiedlichen Rassen und Geschlechtern an Projekten arbeiten. Um dies zu erreichen, müssen Menschen mit unterschiedlichem Hintergrund und unterschiedlichen Erfahrungen einen klaren Zugang und Wege erhalten. STEM-Karrieren .

Folgen Sie uns auf

Bleiben Sie über die neuesten technischen Neuigkeiten auf dem Laufenden

Geben Sie einfach Ihre E-Mail-Adresse ein und wir kümmern uns um den Rest :

Mit Ihrer Anmeldung stimmen Sie unserer zu Nutzungsbedingungen und Datenschutzerklärung . Sie können sich jederzeit abmelden.